1919年福特T型車的造型,從中我們可以找到現代汽車的幾乎所有關鍵要素,甚至它的車牌都和現代的車牌一樣。
資料來源:維基百科。
計算機一樣有這個過程,如前所述,其理論奠基于圖靈,圖靈之后馮·諾依曼設計了一套體系結構把這個東西做出來了,至此可以認為計算機走完了自己從0到1的過程。此后才有從電子管到晶體管,再到使用大規模集成電路的計算機,其形狀也由比房子還大到現在只有手機那么大。在這一過程中,其計算性能翻了無數倍,但是仍然需要馮·諾依曼定義的輸入輸出系統、中央處理器。
如果把人工智能與上述兩者相類比,我們可以發現人工智能根本還沒走完從0到1的過程。人工智能既沒有清楚的理論基礎,也沒有清楚的定義,我們甚至不知道智能究竟是什么。也正因為如此才有先達到某個目標,比如在下棋上戰勝人類,接下來就認為這也不算什么智能的情形出現。
人工智能的內在發展思路曾經多次發生變遷,比如最開始人們認為這種智能依賴于一種物理符號系統,這種系統要通過處理符號組成的數據結構來起作用。人類似乎就是這樣,但這顯然只是一種現象,在這個層面上并不能產生真的智能。接下來也考慮過遺傳算法,這是按照生物進化的過程來做程序,讓程序有某種隨機變化,并用一個選擇過程(生物的優勝劣汰)來保持似乎有用的變化,但限于各種“如果怎樣,否則怎樣”的這種組合太多,在當時這也沒產生什么有價值的結果。
再后來至少一部分人開始轉向神經網絡,這個方向出現的很早,在20世紀60年代就出現了,但那時是非主流,直到20世紀80年代才受到重視,杰夫·霍金斯(Jeff Hawkings)認為這和那時的人工智能主流思路節節敗退有關。神經網絡研究者嘗試在連接中產生智能,其啟示來自大腦,因為大腦由神經元組成,這是顯然的事實。近來極其熱門的深度學習就處在這個方向上,但這個方向也還沒有完成從0到1的過程,只是在特定的領域(比如語音識別、圖像識別)取得了極為令人矚目的成績。這個領域的大牛燕樂存在發表演講的時候曾經專門提到了深度學習的幾個關鍵限制,具體來講包括:
● 缺乏理論基礎。沒有這個,深度學習方法只能被視為黑盒,大多數結論的確認都由經驗而非理論來確定。
● 缺乏推理能力。深度學習技術缺乏表達因果關系的手段,缺乏進行邏輯推理的方法。
● 缺乏短時記憶能力。與深度學習相比,人類的大腦有著驚人的記憶功能。
● 缺乏執行,無監督學習的能力。無監督學習在人類和動物的學習中占據主導地位,我們通過觀察能夠發現世界的內在結構,而不是被告知每一個客觀事物的名稱。
——這是2015年6月演講中提到的內容,InfoQ對此進行了比較完整的報道。
從這一現實來看,我們確實很難講人工智能完成了從0到1的過程,而只能說還處在一種盲人摸象的狀態,雖然偶爾摸到的東西比以前更管用,同時經驗的累積讓我們摸到的面積越來越大。
但與汽車或計算機不同的是,大家普遍認為人工智能從1到100的過程會發生得非常快,而不會像汽車陸陸續續發展了100年,計算機發展了半個多世紀。如果我們真的能解決某些基礎問題,完成從0到1的進展,那人工智能從1到100的過程確實可能在幾年,甚至幾天內實現。互聯網和智能硬件為此準備了充分的數據材料和基礎設施。
如果類人的通用型的強人工智能真的得以實現,那么就會面臨下一個從0到1的過程。這個過程不再是單純的技術問題,而會更多地挑戰我們的倫理觀念,乃至究竟什么才是生命這樣的基本認識。
人類如果不虛偽的話,那么就必須直接承認我們創造人工智能的根本目的其實是獲得一個忠誠不二而又神通廣大的仆人,中間也許會夾雜部分情感需求,比如電影《人工智能》里所展現的愛意。但后者是次要的,就像很多小朋友喜歡毛絨玩具,但這些毛絨玩具是可以被拋棄而沒有心理負擔的。骨子里我們并不想制造出一種完全和我們平等的生靈出來,那樣的話直接生養眾多或者克隆就夠了,我們更不想制造出一種超然的智能凌駕于人類之上,對人類進行統治。
從這個角度看,強人工智能也可以分為兩個階段,要完成以下兩次從0到1的突變:
第一個階段是有智能但沒有本體意識的階段。這個階段人工智能會履行它忠實仆人的角色。這就是當前正在走但還沒走完的從0到1的階段。這個過程的終點是人工智能成為人類神通廣大的仆人,偶爾也充當伙伴。我們當前正處在這個階段。
第二個階段是產生本我意識的階段。這個時候它可能會開始追問自己的存在價值,思考人類為什么會有這么多喜怒哀樂。這時候人也許還在想象力和判斷力上存在優勢。如果我們相信思維天生是外傾并尋求自由的,那么沖突就很可能發生,因為這時候你并不能要求它只存在于你設定的范圍之內,它有自己的選擇。眼下完全無法預測,這個從0到1的過程會不會開始,什么時候結束。
同前者相比,后者所要開啟的新紀元更為深遠遼闊,并且也確實會帶來非常多的新問題。
這兩個從0到1的過程背后隱含了人與人工智能的以下三種關系:
(1)理想狀態是主仆關系,人工智能服務于人類。機器人是人的機器人。這很簡單,在人工智能的第一個階段肯定會這樣。我們也可以認為是人類中心論,人工智能只付出但并不享有權利。
(2)較差的是機器人產生意識,這時候就有人機道德問題。它也是一種生命,但這種生命由人類制造,人類究竟應該如何與它相處?這個時候另一個麻煩的分支是人機可能需要融合。為了延長生命、擺脫疾病、進行漫長的外太空旅行,很多人可能會主動地變成半人半機器。這時候又該如何界定人、半機器人、機器人的權利和責任?
(3)最糟糕的情形就是制造出超級智能。這時候這種超人一定會架在人類上面。人要么轉化為這種超人,要么毀滅。如果能走到第二個階段,那么就很容易演化成第三個階段。第三個階段可以認為是第二個階段從1到100進行發展的結果。
美國人喜歡做A.I.和I.A.的爭論,無數大科學家卷入其中,前者覺得A.I.是一種獨立的智能,后者則覺得計算機上的智能以更好地服務人類為目的。但其實這兩者的差異點并沒有想的那么有價值,兩者在人工智能真的有意識之前,其實是統一的,都需要它的智慧程度快速提高,這樣才能更好地幫助人類。
從哲學角度看這個問題會更有意思。人這種有機的身體其實是非常脆弱的,也許是為了補償這種脆弱,所以上天賦予了人類更高的智能。王東岳先生認為這個過程可以稱之為遞弱代償,如果這真的成立,那么最后出現超級智能的可能性其實不存在,因為這種生物既會有堅強的軀體又會有超高的智慧,近乎宇宙中完美的生命體。
人類花了近萬年來調和人與人之間的矛盾,最終才在200年前認識到自由平等是更好的選擇,雖然仍然無法避免打打殺殺,但現代文明在很多點上取得了基本共識,差異只在程度上。如果進行到后一種狀態,那么人機的平等則需要比這速度更快地達成共識,否則地球可能禁不起太劇烈的折騰。