——王培
像很多其它研究領域一樣,人工智能的基本問題可以提煉成四個:“做什么?” “能做嗎?” “怎么做?” “該做嗎?” 下面是我對這些問題的簡略分析。
研 究 目 標
我在《當你談論人工智能時,到底在談論什么?》(點擊文末“閱讀原文”查看,下同)中已經列舉了“人工智能”名下五類不同的研究目標,而目前流行的“人工智能就是用計算機解決那些以前只有人腦才能解決的問題”就是其中的“能力派”。這一派的優勢是通俗易懂,直接見效,但缺點是圈畫得太大,以至于以前叫“自動化”“計算機應用”的工作現在都趕時髦改叫“人工智能”了。由于這種界定使得AI涵蓋了大量完全不同的系統,在此范圍內建立一個統一的人工智能理論的可能性甚微。
在《人工智能迷途:計算機的高技能等于高智能嗎?》中,我介紹了“通用人工智能”的觀念及其在歷史中的浮沉。時至今日,這個詞越來越多地出現在各種討論中,但對其意義的理解仍有很多誤區。比如一個常見的說法是把通用系統叫做“強人工智能”,而把專用系統叫做“弱人工智能”。這個區分不無道理(因為前者的目標遠高于后者),但二者的區別其實不是能力的強弱(專用系統在能力上往往已經遠勝于人),而是應用范圍和工作原理,所以這種稱呼會使人將二者間“質”的差別誤判為“量”的差別,以為把各種專用系統整合在一起就是通用系統了。
即便在當前的通用人工智能研究者之中,對研究目的的確切設定也各有不同。有些人企圖盡可能忠實地模擬腦結構,有些人企圖在盡可能多的領域中取代人,有些人(包括我)企圖讓計算機遵循和人基本相同的“思維規律”。
成 功 可 能
從“人工智能”“思維機器”等成為研究對象時起,這種努力的成功可能性就一直是有爭議的。隨著深度學習等技術的成功,目前流行話語中的人工智能(在某個具體問題的解決能力上達到或超過人類)的可能性不再是問題,但通用人工智能的可能性仍是受到廣泛懷疑的。
對這個問題的肯定性論證即使在學術界認為大功告成之后的很長時間內仍不會被公眾普遍接受,比如有人會堅持說它沒有“靈魂”,不管它做到了什么。因此,我下面只簡單說明為什么現有的否定性論證都是不能成立的。這里有幾種不同的情況。
一類“人工智能不可能”的斷言是出于對這個領域的研究目標的誤解,因而是在攻擊一個稻草人。持這種態度的人往往以為這個領域的目標是制造在所有方面都和人一摸一樣的計算機。找些證據說明這不可能并不難,但問題是,我還不知道任何研究者真是沖著那個目標去的。實際上,所有研究人工智能(包括通用人工智能)的人都只是認為計算機可以在某些方面和某種程度上和人腦相類似。很多研究者認為在“人類智能”的諸多現象之中存在一個更一般的“智能”機制,而“人工智能”是這個機制的另一種實現方式。按照這種觀點,即使人工智能完全實現,也不會和人類智能在外部表現上完全相同。因此,這種“人工智能不可能”的論斷不會對這個領域中的研究有任何影響。
相比之下,另一類“人工智能不可能”的論證是值得重視的,因為它們是直指人工智能技術的某些“死穴”。比較常見的包括“計算機必須遵循程序,因此不可能有靈活性和創造性”“計算機只能根據形式來使用符號,但無法獲得其意義”“有些真理人能發現,但計算機永遠不能”。在這里,我不具體討論它們(參見我以前的文章),只是指出它們的一個共同問題:其實這里每個論證都是針對一個具體的智能技術或計算機用法,但結論卻往往是“人工智能”如何如何、“計算機”怎樣怎樣,其結果是夸大了其結論的適用范圍。這些討論對人工智能的發展是有益的,因為它們從反面為新理論、新技術的研發提供了借鑒。遺憾的是,至今仍有不少人以為它們限定了所有人工智能研究所能達到的高度。
具有諷刺意味的是,在近期對人工智能的限度的討論中,很多形如“人工智能永遠也無法……”的斷言反而是出自“人工智能專家”之口。這其實也源于主流人工智能在歷經挫敗后對“大問題”的回避。很多人研究多年“人工智能”,但只是注重于對某個別功能的實現和某個別問題的解決,因此在他們說“沒人知道如何實現通用智能”時,他們實際上說的是“我不知道怎么做,而且我所追隨的那些名人也不知道怎么做。其它人的工作不值得注意,因為反正他們也還沒做出來呢”。由于有理由認為通用智能系統和專用系統是非常不同的領域,在后者的研究中成名的人物對前者發言時權威性其實是很有限的,而且“現在還沒做出來”和“永遠也不能做出來”顯然不是一回事。
總之,通用人工智能目前起碼應被看作是可能的,因為沒有足夠強的反面理由。
實 現 途 徑
由于專用系統的實現途徑因問題而異,在這里我只討論通用人工智能,而且只集中分析幾種常見的觀點,而把對我自己的研究進路的介紹留給其它文章。
在相信通用人工智能可能實現的人們當中,目前最被看好的技術自然非深度學習莫屬。每當深度學習的一個新用途出現,總會有人說 “這標志著又向通用人工智能前進了一步”,似乎在這個方向上走下去就是了。在《深度神經網絡會產生人這樣的智能嗎?》中,我已經說明了通過深度學習以及相關的機器學習技術實現通用智能的困難。這里要補充的一點是:有人認為深度學習已經是“通用”的了,因為這個技術可以被應用于很多不同的領域。但這不是“通用人工智能”的意思。深度神經網絡的確既能被訓練下圍棋,也能識別照片,但同一個網絡不能同時做這兩件事。由于以往的機器學習研究基本上都是以“逼近單一函數”為指向的,把它們推廣到多目標(尤其是設計時沒有考慮過的目標)絕不是個容易的事,因為它要求整個研究規范的根本改變。時至今日,尚沒有一個用深度學習實現通用人工智能的完整路線圖,而相信這個可能性的人往往是從已有的成果做簡單外推。
另一個想法是整合各種專用“模塊”于一個“構架”之中,以讓它們分工協作,成為一個通用系統。這是個很自然的想法,也有不少人在試。但是這條路遠不如看上去那么理所當然。隨便找一本人工智能教科書,其中提到的算法或設計就得有幾百個,各有不同的用途。把它們都實現在同一個計算機系統中在原則上是可能的,但決定在什么時候用哪個工具,這本身大概就需要通用智能了,更不要說這些工具各自的理論預設往往是互相沖突的,因此無法互相協調。另一個大問題是諸認知功能的劃分大致上是沿用心理學的傳統(如推理、學習、記憶、聯想、感知、運動、語言、情緒、意識等等),盡管它們之間的聯系顯然非常密切。如果智能的確是“橫看成嶺側成峰”,那么從不同角度和距離描繪不同的“嶺”和“峰”自然可以,但如果目的是給廬山造個模型,那么分別構造這些“嶺”和“峰”,然后再把它們“組裝”起來,這就不對了,因為這些“構件”更應被看作同一個對象的不同側面,而非不同部分。
有人試圖通過構造更“忠實于人腦”的模型來達到各認知功能的統一再現。像我在《深度神經網絡會產生人這樣的智能嗎?》中所說的,這條途徑的最大問題不是其難度,而是其必要性。如果我們把智能看成一種有不同實現方式的認知機制,那就沒有理由認為人腦是唯一能實現它的方式,盡管它的確是我們最熟悉的方式。和人腦在實現細節上最接近的模型未必是人工智能最合適的模型,盡管這種模型對腦科學而言很有價值。
總之,在實現其它目的時有效的技術未必對通用人工智能有很大貢獻,因為這里的目標和制約條件非常不一樣。在選擇技術路線時應當從智能的特征出發,同時考慮計算機系統的現實條件。
倫 理 抉 擇
最后,即使我們發現了建造思維機器的途徑,那也不一定意味著我們真要把它做出來。已經有很多名人大聲疾呼地要求人工智能慢下來甚至停下來了,因為他們害怕人類失去“萬物之靈”的地位及其后果。關于這種詰難,我已經寫了《人工智能危險嗎?》來回應,而這里只是再加些補充。
首先,很多“人工智能專家”對AI安全性所做的保證往往只涉及他們所構建或能夠設想的系統,其中完全沒有適應性、靈活性、自主性、創造性等通用人工智能系統才可能具有的特征,因此說的基本就是另外一個問題。由于這些特征,通用人工智能帶來的倫理道德問題和傳統技術有根本的不同,因此要求不同的應對方案。
作為適應性系統,通用人工智能最大的特點之一就是其行為不僅僅取決于設計(先天因素),而更加依賴于經驗(后天因素),因此對這種系統的控制需要通過影響它的經驗來實現,就像社會對個人的制約那樣。因此,不能指望人工智能工作者可以設計出永不犯錯的系統,也不能奢望對人工智能安全性的研究可以預先排除掉所有危險。而在另一方面,在這種系統上進行的研究可以極大豐富我們對適應性系統(包括人和動物)的認識,將教育學和社會學(甚至經濟學和法學)的研究范圍擴展至包括智能機器在內。
總之,人工智能研究的正當性既來自人類認識思維一般規律的長期渴望,也來自社會發展對復雜信息加工的實際需求。這項研究同時也帶來了新的挑戰,對此我們絕不能掉以輕心,但也不該盲目恐懼。要避免AI造成的危險,起碼要把AI是怎么回事搞對吧?那些“AI必然導致災難”的斷言在這一方面往往都不及格,其結果是和風車作戰,反而對可能性大很多的危險毫無提防。除非我們有足夠的證據認為某項技術(包括各種意義下的人工智能)的確會是弊大于利,我們還是有充分理由來繼續這項探索,同時拒絕廉價的保票,準備好對該技術的各種后果進行盡可能恰當的應對