人工智能學科的核心目標是,有朝一日我們能夠建造像人類一樣聰明的機器。這樣的系統通常被稱為通用人工智能系統(AGI)。
到目前為止,我們已經建立了無數AI系統,在特定任務中的表現可以超過人類,但是當涉及到一般的腦力活動時,目前還沒有一個AI系統能夠比得上老鼠,更別說超過人類了。
但是,盡管關于AGI的話題在人工智能領域一直被廣泛討論,但研究人員對于這一宏偉目標何時實現的問題上,幾乎從未達成一致意見。
23位頂尖AI專家預測:通用人工智能可能在2099年實現
在近日出版的一本名為《智能架構》的新書中,該書的作者、未來學家馬丁·福特采訪了AI領域的23位最杰出的人物,其中包括DeepMind首席執行官Demis Hassabis,谷歌AI首席執行官Jeff Dean和斯坦福AI負責人李飛飛等。
其中一個話題要求受訪對象做出預測,我們在哪一年能夠有50%的機會成功實現通用人工智能?
在23位受訪者中,有18人回答了這個問題,但只有兩人愿意具名回答。
有趣的是,這兩個人給出的答案是最極端的:谷歌的未來學家和工程總監Ray Kurzweil認為,這個時間為2029年。而iRobot聯合創始人Rodney Brooks的回答則是2200年。其余人給出的答案在這兩個時間點之間,平均算下來,這個時間點為2099年,也就是81年之后。
換句話說:有一點可能,我們能夠在有生之年,見證通用人工智能的實現。
通用AI就是具備廣泛智能水平的AI,但我們目前仍缺少實現通用人工智能的很多關鍵技術
要實現通用人工智能,目前缺乏必要的技術基礎
從調查結果看,對這個問題的態度和年齡之間可能存在一些相關性。福特指出,有些接受采訪的研究人員已經70多歲,經歷過AI領域的起起伏伏。 “如果你身處AI領域,對這個問題確實會變得更加悲觀。”
福特說,這個調查顯示出專家們對這個問題的有趣的分歧,不是關于何時實現AGI,而是使用現有方法是否可能實現AGI。
一些研究人員表示,現在大部分基本工具和條件都已經具備了,實現AGI只需要時間和精力了。還有人則表示,我們目前仍然缺少實現這一目標所需的重大技術突破。
目前AI研究人員的大量成果都基于深度學習,這部分人傾向于認為未來的進步離不開神經網絡,即當代AI的核心。而具有其他AI背景的人認為,實現AGI需要通過其他方法,比如符號邏輯。無論哪種方式,對這個問題都存在相當大的分歧。
福特說:“深度學習陣營中的一些人非常看不起在AI中直接設計常識之類的東西。他們認為這種想法很愚蠢。有人說,這就像是要把一些信息直接粘貼到大腦中一樣。”
許多專家認為,我們目前還缺少實現AGI的一些必要技術基礎。
所有受訪專家都提到當前AI系統的局限性,并提到了目前尚未掌握的關鍵技術。包括遷移學習、無監督學習等。(目前絕大多數機器學習方法都要依賴人工標記數據,這是AI技術發展的嚴重瓶頸。)
盧瑟福預測原子能永遠不能提取,結果16小時遭“打臉”
加州大學伯克利分校教授Stuart Russell曾寫過一本關于AI的基礎教科書,他說,實現AGI所需的那些技術突破“并不是指更大的數據集,速度更快的機器”,所以這個目標很不容易實現。
“說起這個問題,我總是要說核物理學研究中的故事,”Russell在接受采訪時說。 “原子核物理學之父盧瑟福于1933年9月11日曾表示,我們永遠不可能從原子中提取出原子能。也就是說,他對“原子能何時誕生”的預測是“永遠不可能”。
但事實證明,第二天早上Leo Szilard看到了盧瑟福的表態,覺得很煩,然后第二天就發明出了由中子介導的鏈式核反應!
“本來盧瑟福的預測是“永遠不可能”,而事實是,大約16個小時后就實現了!同樣,我覺得對AGI何時實現的預測也是這樣,這種關于未來的遙遠預測其實沒什么意義。”
福特表示,這種在基本層面上的不可知性,可能是受訪專家不愿意具名公開預測這個問題的重要原因。 “那些預測時間距離今天較近的人,可能會擔心會引發太多不必要的關注。”他說。
許多研究人員表示,與超級人工智能的威脅相比,未來對人類威脅更大的是經濟問題
現在討論AGI毫無意義,不如多關注AI現實
關于通用人工智能可能帶來的危險,眾多專家同樣意見不一。牛津大學哲學家NickBostrom是《超級智能》(這是“鋼鐵俠”馬斯克的最愛讀的書之一)的作者,他曾經對通用人工智能可能帶來的危險做出激烈的表態。
他說,人工智能對人類的威脅可能比氣候變化更大。
“我覺得,值得擔憂的關鍵問題不是AI會因為被我們奴役,而對我們產生厭惡或怨恨,也不是擔心AI突然產生意識的火花,并背叛我們。”博斯特羅姆說。“而是AI會去全力追求一個不同的目標,而這個目標并不是我們真正想要的。”
大多數受訪者表示,與全球經濟問題和在戰爭中使用先進自動化技術等問題相比,AI威脅人類的問題還極為遙遠。
哈佛大學人工智能教授Barbara Grosz表示:通用AI倫理問題大多是“沒說到點子上,轉移了人們的注意力。真正的問題是,目前的AI系統就已經產生很多道德問題了。在這種情況下,我認為將注意力轉移到遙遠的未來場景是不合適的。”
福特說,這種觀點上的反復爭論,可能是智能架構建立時最重要的一點:在AI這樣復雜的領域,確實沒有簡單唯一的答案。即使是頂級的精英科學家中,也不可能就世界面臨的基本問題和挑戰達成一致意見。
那么,我們究竟在這個問題上達成什么共識?福特表示,共識只有一個:無論AI接下來會朝什么方向發展,都將是非常具有破壞性的。