近日,英國理論物理學家霍金語出驚人,預言人工智能科技如果不加控制地發展,將超越人類智能,并控制或滅絕人類。無獨有偶,牛津大學哲學教授、人類未來研究所創建者博斯特羅姆近日也指出,超級人工智能是人類未來最大的存在風險,其風險性高于自然災害、環境惡化、流行疾病。
兩位英國學者的觀點是否合理?人工智能會不會發展到人類無法駕馭的超級智能階段?記者采訪了研究人工智能哲學的復旦大學哲學學院教授徐英瑾。
圖靈為人工智能設立標準
徐英瑾介紹,人工智能學科緣起于一篇經典論文和一次重要會議。
1950年,英國數學家、邏輯學家、計算機科學理論奠基人圖靈在《心智》雜志發表論文《計算機器和智能》,提出了著名的“圖靈測試”——如果一臺機器能夠與人展開對話(通過電傳設備),并且會被人誤以為它也是人,那么這臺機器就具有智能。
顯然,這是一個帶有行為主義色彩的“人工智能”定義,因為該定義沒有從機器內部機制著手,而是通過其外在行為來判斷它是否具有智能。其好處是,繞開了“智能的本質”這個眾說紛紜的問題,給人工智能發展設定了一個目標:開發出能通過圖靈測試的機器。
1956年,一群學者在美國達特茅斯學院參加會議,探討如何利用問世不久的計算機實現人類智能。會議籌備期間,后來獲得計算機科學最高獎——圖靈獎的麥卡錫提議用“Artificial Intelligence”(人工智能)一詞來稱呼這門新興學科,得到了與會者認同。在這次會議上,學者們討論了如何在人類智能水平上實現機器智能,而不是用特定算法解決一些具體問題。舉個例子,IBM公司研制的“深藍”計算機能夠在與國際象棋世界冠軍卡斯帕羅夫的對弈中勝出,但并不能由此認為“深藍”擁有了超級人工智能。這是因為,它只是在某個方面的能力上超過人類,而且無法通過圖靈測試。
如果霍金擔心的超級計算機有朝一日問世,那它必定在綜合思維能力上超出人類,這樣才可能擁有“僭越”的想法,以及控制或消滅人類的能力。
霍金警示的風險理論上存在
值得“慶幸”的是,目前,人工智能的全球領先水平與超級人工智能相去甚遠。學術界普遍認為,世界上還沒有機器能通過圖靈測試。
對于這一現狀,有三種回應觀點——
第一種觀點是:圖靈、司馬賀等人工智能學科元老提出的全面模擬人類智能的想法,太好高騖遠。這種玄想或許在未來會成真,但目前為實現這個想法做研究,純屬浪費精力。業界目前應做一些踏實的人工智能研究,滿足于制造解決特殊問題的求解器。徐英瑾發現,許多人工智能業內人士持這一觀點。由此可見,霍金的警告有點杞人憂天的味道。
第二種觀點是:全面實現人類智能的機器是不可能造出來的,就像造不出永動機一樣。學者們提出過多種論證,試圖從哲學、邏輯層面論證這種不可能性,其中非常著名的有美國哲學家塞爾提出的“漢字屋論證”(也稱“中文房間思想實驗”)以及英國理論物理學家、數學家彭羅斯提出的“從哥德爾不完備性定理出發的論證”,但這些論證都遭到了學術界反駁。徐英瑾認為,“漢字屋論證”和彭羅斯的論證都是站不住腳的,超級人工智能并沒有在理論上“被判出局”。
第三種觀點與第一種有相近之處,認為全面實現人類智能的機器是能夠造出來的,但難度很大。如果當下的人工智能研究路子不改變,那么點滴成果的積累也未必能質變為全面突破。“我持這種觀點。”徐英瑾說,“所以我認為霍金、博斯特羅姆警示的風險從理論上來說是存在的,但在未來相當長時間內不會成為現實。”
大數據技術有先天缺陷
在這位復旦學者看來,如今十分熱門的大數據技術,一旦過度應用于人工智能領域,就是一條錯誤的路子。
大數據技術催生了數據科學。與傳統的科學研究范式不同,數據科學不再追求因果關系,而是按照“樣本=總體”的思路對海量數據進行深入挖掘和統計分析,尋求各個事物間的相關性。很多時候,大數據統計出的是“2+2=3.9”這類近似結果,精確度上的略微損失,換來了對事物間相關關系的準確預測。
徐英瑾認為,大數據分析是西方經驗論哲學在當代的一種表現形式。近代西方哲學分為兩大流派:經驗論和唯理論。經驗論認為,人的感性經驗是一切知識和觀念的唯一來源;唯理論與之針鋒相對,認為具有普遍必然性的知識并非來自經驗,而是來自人與生俱來的理性。大數據研究范式推崇海量數據的采集,那些用于數據采集的攝像頭、傳感器等設備好比人類感官的延伸;還推崇大樣本的統計學分析,用它取代因果分析。這種看重經驗采集、貶低理性推理的模式背后,正是經驗論哲學觀。
就像經驗論有其局限性一樣,大數據分析也有局限。以基于大數據技術的“谷歌翻譯”為例,這種人工智能系統的研發團隊沒有通過編程定義語法規則,因為完善的語法編程目前還無法實現。他們采用的主要技術方案,是利用大數據統計不斷調整翻譯結果的相關性,優化翻譯結果。這樣做的好處是,翻譯系統會隨著數據的積累而不斷改善。但目前,使用“谷歌翻譯”的結果只能幫助人們大致理解陌生語言,有時候得到的翻譯結果很不通順。“大數據翻譯系統缺少深層語法結構,這種結構好比唯理論看重的先天理性,缺少了它,人工智能系統就無法譯出完善的自然語言。”徐英瑾說。
而讓機器“說”出人們在日常生活中說的自然語言,正是圖靈測試所要求的。在人工智能領域,“自然語言處理”占有重要地位,已發展成一個相對獨立的研究領域。蘋果手機的Siri、上海企業開發的小i機器人,都是應用自然語言處理技術的人工智能產品。有興趣的讀者可以對 Siri 和小 i 機器人進行圖靈測試,看看它們的回答是否像人。
讓機器人服從“絕對命令”
在好萊塢電影《梯陣陰謀》中,美國國安局設置的超級計算機Echelon(梯陣),能通過調取、分析每個公民的各類信息,進行行為監控,還可以向人們的手機發送短信,達到不可告人的目的。
這種超級人工智能如果在未來成為現實,人類社會將毫無隱私可言。影片結尾,找到Echelon的男主角向它提問:你的宗旨是什么?Echelon的回答是“保護美國公民的自由權益”。經過一番人機對話,這臺計算機“幡然悔悟”,將自身的監視程序刪除了。
博斯特羅姆認為,科幻電影和小說中常見的自毀程序橋段,并不是解除超級人工智能威脅的最佳方案。他指出,“我們并不是要永遠抑制超級智能,或不開發行動自由的超級智能。”計算機程序的“動機選擇問題”必須得到解決。一種解決方案是將機器的目標模糊化。例如,如果想要它幫助醫生治療某種疾病,可以將目標設為“做有利于人類健康的事”。另一種解決方案是使人工智能更人性化,為其編入同情和利他主義程序。
這兩種方案,都與科幻小說家阿西莫夫提出的“機器人三定律”相通。三條定律分別是:第一法則:機器人不得傷害人類,或坐視人類受到傷害;第二法則:除非違背第一法則,機器人必須服從人類的命令;第三法則:在不違背第一和第二法則的情況下,機器人必須保護自己。“這堪稱機器人版的‘絕對命令’學說。哲學家康德提出的‘絕對命令’要求,人應該在任何情況下把自己和他人當作目的,而非手段。”徐英瑾評論道,“未來出現超級人工智能后,應將這種機器人倫理以立法形式確立下來,防止瘋狂的科學家開發出旨在控制甚至毀滅人類的機器。”
相關鏈接
漢字屋論證
一個母語是英語、對漢語一竅不通的人,呆在一間只有一個開口的封閉房間里。屋內有一本用英文寫的說明漢語語法和漢字組合規則的手冊,以及一大堆漢字符號。屋外的人不斷向屋內遞進用漢字寫成的問題。屋子里的人便按照手冊上的說明,將漢字符號組合成對問題的解答,并將答案遞出房間。
在這個思想實驗中,屋內人相當于計算機,手冊相當于計算機程序。塞爾想以此證明,正如屋內人不可能通過手冊理解漢語一樣,計算機不可能通過程序獲得理解力,即馮·諾依曼型計算機不可能具備強人工智能。