雖然有關殺手機器人的炒作從未停止過,但2017年人工智能領域(AI)的確取得了許多顯著進步。例如,名為“Libratus”的機器人在撲克游戲中大殺四方。而在現實世界中,機器學習正被用于改善農業和醫療行業。但是,你最近同蘋果智能助理Siri或者亞馬遜的人工智能助理Alexa聊過嗎?然后你就會知道,盡管有許多關于AI的大肆宣傳,億萬富翁們對此感到十分擔憂,但有很多東西仍然是AI無法做到或能理解的。這里有五個比較棘手的問題,專家們將在明年重點關注它們。
1.人類話語意義
與以往任何時候相比,機器現在似乎可以更好地使用文本和語言。Facebook的AI可以為視障人士閱讀圖片上的描述,谷歌的AI可為回復郵件提供簡短建議。然而,軟件仍然不能真正理解我們話語中的意義,以及我們與之分享的想法。波特蘭州立大學的梅勒妮·米切爾教授(Melanie Mitchell)說:“我們能夠以不同的方式運用將所學到的概念,并將它們應用到新的環境中。而這些AI和機器學習系統還沒有這樣的能力。”
米切爾認為,今天的軟件存在數學家吉安-卡洛·羅塔(Gian-Carlo Rota)所謂的“意義障礙”。許多領先的AI研究團隊正試圖弄清楚如何克服它。其中一項工作的目的是賦予機器以常識和物質世界的基礎,這些基礎同樣支撐著我們的思維。例如,Facebook的研究人員正試圖通過觀看視頻來教軟件理解現實。其他團隊正在努力模仿我們對這個世界的認識。谷歌一直在研究試圖學會理解隱喻的軟件。米切爾已經嘗試了一些系統,用類比和關于世界的概念來解釋照片中發生的事情。
2.現實差距阻礙了機器人革命
機器人硬件已經準備就緒,你可以花500美元買到裝有高清攝像頭、手掌大小的無人機。那些拖著箱子、使用兩條腿行走的機器也有了很大改進。那么,為什么我們還沒有被熙熙攘攘的機械幫手所包圍?今天的機器人缺乏與其復雜肌肉相匹配的大腦。
讓機器人從事需要特定編程來完成的特定任務時,它們可以通過反復試驗(和錯誤)來學習諸如抓取物體之類的操作,但這個過程相對較慢。一個很有希望的捷徑是讓機器人在虛擬的模擬世界中訓練,然后把那些來之不易的知識下載到物理機器人的身體里。然而,這種方法卻被“現實差距”一詞所困擾,這個短語描述了機器人在模擬過程中學習到了技能,但在被移植到物理世界的機器上時卻并非總是有效。
“現實差距”正在縮小,今年10月份,谷歌在實驗中報告了十分樂觀的結果,模擬和真正的機器人手臂學會了挑選不同的物體,包括膠帶、玩具以及梳子。然而,對于那些研究無人駕駛汽車的人來說,還需要更大的進步。為了減少在真實交通和道路條件下測試的時間和資金,在模擬街道上駕駛虛擬汽車的公司競相在模擬街道上部署虛擬汽車。
無人駕駛汽車初創企業Aurora的首席執行官克里斯·厄姆森(Chris Urmson)表示,讓虛擬測試更適用于真正的汽車是他的團隊的首要任務之一。厄姆森之前負責領導谷歌母公司Alphabet旗下的無人駕駛汽車項目,他說:“明年我們將會很清楚地看到,我們如何利用這一優勢加速學習。”
3.防范AI黑客
運行我們的電網、安全攝像頭以及手機的軟件總是被安全漏洞所困擾,我們不應該指望無人駕駛汽車和家用機器人的軟件會有什么不同。事實可能更糟糕:有證據表明,機器學習軟件的復雜性為黑客引入了新的攻擊途徑。研究人員今年發現,你可以在機器學習系統中隱藏一個秘密的觸發點,使其在特定信號觸發的情況下進入邪惡模式。紐約大學的研究小組設計了一個街頭標志識別系統,它的功能十分正常,除了在看到黃色便利貼的情況下。在布魯克林一個停車標志上貼上黃色便簽,該系統將標牌報告為限速標志。這種黑客技術的潛力可能會給無人駕駛汽車帶來許多麻煩。
這個威脅被認為是非常嚴重的,世界上最著名的機器學習研究者們在本月初召開了為期一天的關于機器欺騙威脅的研討會。研究人員討論了諸如如何生成看起來與人類正常手寫數字一樣的復雜技巧,但似乎又與軟件不同。以2為例,機器視覺系統可能將其看作是3。研究人員還討論了防御這種攻擊的可能性,并擔心AI可能被用來愚弄人類。
組織這次研討會的蒂姆·黃(Tim Hwang)預測,隨著機器學習變得更容易部署和日益強大,使用這種技術來操縱人們是不可避免的。蒂姆指出:“你不再需要一屋子的博士來研究機器學習技術。”他還稱,在2016年美國總統選舉期間,俄羅斯的“反信息”運動就是一場AI增強信息戰的潛在先行者。蒂姆預測,最有效的方法就是使用機器學習來生成假視頻和音頻。
4.玩轉棋牌游戲
在2017年,Alphabet旗下的圍棋軟件AlphaGo得到迅速發展。今年5月份,更強大的軟件版本擊敗了中國冠軍。它的創造者、研究單位DeepMind后來又開發出一個版本AlphaGo Zero,在不學習人類棋路的情況下學會了這個游戲。今年12月份,另一項升級努力誕生了AlphaZero,它可以學習國際象棋和日本棋牌游戲Shogi(雖然不是同時學習)。
這些引人注目的結果令人印象深刻,但也提醒了我們AI軟件的局限性。國際象棋、shogi以及圍棋都是復雜的,但它們都有相對簡單的規則,并對雙方都可見。對于計算機來說,這種挑戰恰好與其快速進化的能力相匹配。但是,生活中的大多數情況和問題都不是這么井然有序。
這就是DeepMind和Facebook在2017年開始研發多人游戲《星際爭霸》(StarCraft)的原因,目前兩家公司都沒有取得太大成就。現在,業余愛好者制造的最好的聊天機器人,依然無法匹敵那些技術精湛的玩家。DeepMind研究人員Oriol Vinyals在今年早些時候告訴《連線》雜志,他的軟件目前缺乏精心組裝和指揮軍隊所需的計劃和記憶能力,同時也無法對對手的移動進行預測和反應。無獨有偶,這些技能也能讓軟件更好地幫助處理現實世界的任務,比如辦公室工作或實際的軍事行動。在2018年,《星際爭霸》或類似游戲取得重大進展可能預示著更強大AI的新應用。
5.教AI辨別是非
即使沒有在上述領域取得新的進展,如果現有的AI技術被廣泛采用,經濟和社會的許多方面也會發生巨大的變化。隨著公司和政府急于部署AI,許多人擔心AI和機器學習會造成意外和故意傷害。如何在安全和符合道德規范的范圍內對技術保持控制,是本月NIPS機器學習會議上一個重要的討論話題。
研究人員發現,當機器學習系統接收遠離“完美世界”的數據訓練時,它們可以接受令人討厭的或不受歡迎的行為,比如永遠維持性別刻板的印象。現在,有些人正在研究可以用來審計AI系統內部工作的技術,并確保它們在從事金融或醫療等行業工作時做出公平的決策。
明年,科技公司將會提出如何讓AI保持人性正確一面的想法。
谷歌、Facebook、微軟以及其他公司已經開始討論這個問題,并且成立了新的非營利組織Partnership on AI,它將研究并試圖塑造AI的社會影響。此外,名為“人工智能倫理與治理基金會”的慈善項目正在支持麻省理工學院(MIT)、哈佛大學以及其他研究AI和公共利益的機構。現在,紐約大學的一個新研究機構AI Now也有一個類似的任務。在最近的一份報告中,它呼吁各國政府放棄使用“黑匣子”算法。
(選自:WIRED 編譯:網易見外編譯機器人 審校:小小 )