打開潘多拉魔盒?谷歌正研發(fā)“人類最強大模型”,高管確認(rèn)其將具備“自我規(guī)劃”能力
激石Pepperstone(http://qintiejiang.com/)報道:
當(dāng)AI能像人類一樣感知世界和解決問題,人類和AI的界限還存在嗎?
潘多拉魔盒已經(jīng)打開,AI正朝著更高級的智能形態(tài)進化。據(jù)Wired周一報道,谷歌DeepMind的聯(lián)合創(chuàng)始人兼CEO Demis Hassabis者接受采訪時表示,谷歌正在使用AlphaGo的技術(shù)制造名為“Gemini”的人工智能系統(tǒng),該系統(tǒng)將比ChatGPT的模型更強大。
Gemini與GPT-4性質(zhì)相似,是一個處理文本的大語言模型,目前Gemini仍在開發(fā)中,這個過程將需要數(shù)月時間。Hassabis指出:
團隊將把GPT-4的技術(shù)與AlphaGo中使用的技術(shù)結(jié)合起來,旨在賦予該模型新的能力,如規(guī)劃或解決問題的能力以及文本分析能力。
在高層次上,你可以認(rèn)為Gemini是將AlphaGo系統(tǒng)的一些優(yōu)勢與大模型的驚人語言能力相結(jié)合。
AI更高級形態(tài)=AlphaGo+大模型
人們普遍認(rèn)為,像人類和動物那樣從物理世界的中學(xué)習(xí)經(jīng)驗,對于人工智能的發(fā)展非常重要。一些人工智能專家認(rèn)為,語言模型通過文本間接地學(xué)習(xí)是其發(fā)展主要的限制。
而AlphaGo的優(yōu)勢可以解決這一點,2016年,DeepMind設(shè)計的AI系統(tǒng)AlphaGo以4比1的比分擊敗了世界圍棋冠軍李世石,是史上首個戰(zhàn)勝圍棋世界冠軍的機器人。
AlphaGo基于DeepMind開創(chuàng)的強化學(xué)習(xí)技術(shù),該技術(shù)通過讓AlphaGo反復(fù)嘗試并接受表現(xiàn)的反饋,學(xué)會處理需要選擇采取何種行動的棘手問題。同時,AlphaGo使用了蒙特卡洛樹搜索技術(shù)方法來探索和記憶棋盤上的可能行為。
語言模型的下一步飛躍可能是在計算機上執(zhí)行更多任務(wù),此前文章提到,Gemini的最大優(yōu)勢在于其多模態(tài)能力,不僅能夠理解和生成文本、代碼,還能夠看懂和生成圖像。相比之下,ChatGPT只是一個純文本模型,只能理解和生成文本。
此外,制作和ChatGPT類似能力的語言模型的一個重要的步驟是使用人類反饋強化學(xué)習(xí)來完善其性能,DeepMind在強化學(xué)習(xí)方面的深厚經(jīng)驗可賦予Gemini新的能力。
值得一提的是,為了加強AI研究,谷歌在4月將以前獨立的人工智能研究實驗室Google Brain和DeepMind合并為一個名為Google DeepMind的新部門。Hassabis表示,新的團隊匯集對最近的人工智能進展具有關(guān)鍵作用的力量。
2014年,DeepMind展示了使用強化學(xué)習(xí)掌握簡單游戲的成果后被谷歌收購,在接下來的幾年里,DeepMind展示了該技術(shù)是如何做那些曾經(jīng)看起來只有人類才有的事情的,AlphaGo在2016年擊敗圍棋冠軍李世石,當(dāng)時許多人工智能專家都驚呆了,他們曾認(rèn)為機器要想熟練掌握如此復(fù)雜的游戲還需要幾十年。
未來將更具風(fēng)險?
近期,AI模型的發(fā)展之快,令許多專家開始擔(dān)心,該技術(shù)是否會被惡意使用或變得難以控制。一些業(yè)內(nèi)人士甚至呼吁暫停開發(fā)更強大的算法,以避免造成安全威脅。
Gemini的能力令外界感到驚訝,同時也感到害怕,AI“高風(fēng)險功能”或?qū)⒈还雀栝_啟。
AI Explained發(fā)現(xiàn),“計劃”這一能力被谷歌當(dāng)做Gemini的賣點,但被OpenAI視為一種安全風(fēng)險。
對此,Hassabis認(rèn)為:
AI具有非凡的潛在好處,例如在健康或氣候等領(lǐng)域的科學(xué)發(fā)現(xiàn),需要繼續(xù)發(fā)展這項技術(shù)。
此外,強制暫停是不切實際的,因為這幾乎是不可能執(zhí)行的。如果做得正確,AI將是對人類最有利的技術(shù),我們必須大膽地、勇敢地去追求這些。
然而,這并不意味著Hassabis主張人工智能的發(fā)展要一哄而上。在ChatGPT出現(xiàn)之前,DeepMind就一直在探索人工智能的潛在風(fēng)險,該公司的聯(lián)合創(chuàng)始人之一Shane Legg多年來一直在公司內(nèi)部領(lǐng)導(dǎo)一個“人工智能安全”小組。Hassabis上個月與其他高知名度的行業(yè)專家一起簽署了一份聲明,警告說未來AI帶來的風(fēng)險可能與流行病和核戰(zhàn)爭相當(dāng)。
Hassabis指出,目前最大的挑戰(zhàn)之一是確定能力更強的人工智能風(fēng)險是什么,其認(rèn)為該領(lǐng)域需要進行更多的研究,加緊進行評估測試等工作,來確定新的人工智能模型的能力和可控性如何。?????????
掃描二維碼推送至手機訪問。
版權(quán)聲明:本文由激石Pepperstone發(fā)布,如需轉(zhuǎn)載請注明出處。