三年前,在一次跨大西洋問題的會議上,人工智能的主題出現在議程中。我正想跳過那一環節,因為這超出了我通常關注的領域,但那場演講的開篇卻讓我留在了座位上。
演講人描述了一款即將挑戰圍棋世界冠軍的計算機程序的工作原理。我吃驚地發現,電腦竟能精通比國際象棋更復雜的圍棋。在圍棋中,每個棋手有180或181枚棋子(這取決于他或她選擇哪種顏色的棋子),他們在一塊開局時為空的棋盤上輪流落子。勝利的歸屬取決于哪一方能通過更巧妙的決策,更有效地控制實地,從而困死對手。
演講人堅稱,這種能力是無法預先給機器編制好的。他表示,他的機器在實戰中訓練自己,從而學會了熟練掌握圍棋。基于圍棋的規則,計算機和自己對弈了無數局,從錯誤中吸取了教訓并相應完善了算法。在這一過程中,它超越了人類導師的技術。事實上,在演講結束幾個月后,一款名為“阿爾法狗”(AlphaGo)的人工智能程序完勝了世界上最偉大的圍棋手。
聽到演講人稱許這一技術進步,作為一名歷史學家且一度從政的經歷令我駐足思考。自我學習的機器通過特定過程獲得知識,并將這些知識應用于可能超出人類理解范疇的目的,這樣的機器會對歷史產生什么影響?這些機器會學會互相溝通嗎?面對新出現的選項,機器如何做出選擇?印加人對西班牙文化感到難以理解,甚至心生敬畏,人類歷史是否有可能步他們的后塵?我們是否即將步入人類歷史的新階段?
意識到自己缺乏這一領域的技術能力,我接受了一些技術和人文領域熟人的建議,并與他們合作,組織了一些關于該主題的非正式對話。這些討論增添了我的憂慮。
一個有賴于機器的世界
迄今為止,最大程度改變現代歷史進程的技術進步是15世紀發明的印刷機,它使得對經驗知識的追尋代替了儀式性的教條,理性時代逐漸取代了宗教時代。個人洞見和科學知識取代了信仰,成為衡量人類意識的首要尺度。人們將信息存儲起來,并在規模不斷擴展的圖書館中將其系統化。塑造當代世界秩序的思想和行動源起于理性時代。
但眼下,在一場新的、甚至更徹底的技術革命之中,那一秩序面臨劇變。我們已經無法充分預判這場革命的后果,而其終局可能是一個有賴于機器的世界,那些機器靠數據和算法驅動,且不受倫理或哲學規范的規制。
我們已身處其中的互聯網時代預示著部分問題和麻煩,人工智能只會使之更加嚴重。啟蒙運動力圖將因襲而得的真理服從于不受拘束的、分析性的人類理性。互聯網的目的則是通過積累和處理不斷擴充的數據來接受現有的知識。人類的認知失去了個人的特性。個人變成了數據,而數據變成了統治者。
相較于在具體情境中思考或概括信息的意義,互聯網用戶更看重檢索和處理信息。他們很少審視歷史或哲學;一般來說,他們所要求的信息同他們目前的實際需求相關。在這一過程中,搜索引擎的算法獲得了預測個人用戶偏好的能力,使算法能夠對結果進行個性化處理,并將它們提供給其他各方,用于政治或商業目的。事實變得相對,信息恐怕要壓倒智慧。
互聯網用戶不再內省,轉而被社交媒體上各類群體的意見所淹沒;事實上,許多技術愛好者用互聯網來避免他們所懼怕的孤獨。所有這些壓力都削弱了形成和維護信念所需要的毅力,而只有走一條人跡罕至的路才能使這樣的信念成為現實,創造力的本質即在于此。
互聯網技術對政治的影響尤為明顯。能夠準確定位弱小群體,關切他們特定的訴求或不滿,這打破了以往對優先政治議程的共識。政治領導人疲于應付這些細分壓力,沒有時間思考或審視問題產生的背景,這擠壓了他們制定遠期規劃的空間。
數字世界對速度的強調抑制了沉思;其激勵賦權于激進者要多于思想者;其價值觀由亞群體共識所塑造,而非由內省形成。盡管有成就,但由于其強制性壓倒了便利性,數字世界面臨自我攻擊的風險。
隨著互聯網和不斷提高的計算能力促進了海量數據的積累和分析,對人類理解力而言,前所未見的遠景已經浮現。或許意義最為重大的是人工智能開發項目。人工智能技術能夠通過似乎是復制人類創設和解決抽象問題的過程,創設和解決復雜的、看似抽象的問題。
這遠遠超出了我們所熟知的自動化。自動化涉及手段;它通過對實現目標的生產工具的合理化或機械化來達成預定目標。相比之下,人工智能涉及目的;它確立了自己的目標。人工智能所取得的成就部分地取決于其自身,就此而言,人工智能本身是不穩定的。人工智能系統通過其實際運作,在獲取并即時分析新數據的過程中不斷變化,繼而在那一分析的基礎上尋求改進自身。通過這一過程,人工智能發展出一種以前被認為是僅有人類擁有的能力。它對未來做出戰略判斷,有些判斷基于以代碼形式接收到的數據(例如游戲規則),有些判斷則基于它自己收集的數據(例如,通過把一個游戲反復玩上一百萬次)。
無人駕駛汽車展現了傳統上由人類操控、軟件驅動的計算機行為與人工智能試圖駕馭的領域之間的區別。駕駛汽車需要在多重復雜情形下做出判斷,這些情形不可能預測并就此提前編程。以一個眾所周知的假設為例,假如一輛汽車受環境所迫,要在殺死一位祖輩老人和一個孩子之間做出選擇,那么什么事情會發生?它會選擇誰?為什么?它會試圖優化其選擇過程中的哪些因素?此外,它能解釋其基本原理嗎?假如人工智能能夠和人溝通的話,當被問及這些問題,它真實的回答可能是:“我不知道(因為我遵循的是數學的原理而不是人的原理)。”或“你不會理解(因為我受到的訓練是是以某種方式來應對,而不是去解釋原理)”。然而,十年之內,無人駕駛汽車可能在道路上普及。
迄今為止被局限于特定活動領域的人工智能研究,現在正試圖開發出能夠在多種領域執行任務的“普遍智能”的人工智能。在可見的時間段內,越來越多的人類活動將由人工智能算法驅動。但這些算法是對被觀察到的數據的數學闡發,并不解釋形成數據的潛在現實。矛盾的是,隨著這個世界變得越來越透明,它也將變得越來越神秘。是什么會將那個新世界與我們已知的世界區別開來?我們將如何生活在其中?我們將如何管理人工智能,改進人工智能,或者至少防止其造成傷害,最終造成對我們最不利的擔憂?也即,人工智能比人類更迅速且確定地掌握了某些能力之后,久而久之,在將人類活動轉變為數據的同時,它自身可以削弱人類的能力并貶低人類的境況。
不確定性和模糊性
人工智能遲早將極大造福于醫學、清潔能源供應、環境問題以及許多其他領域。但正因為人工智能是對一個正在演進中、并不確定的未來下判斷,所以不確定性和模糊性是內在于其結果的。對此,有三個特別值得關注的領域:
首先,人工智能可能實現意想不到的結果。科幻小說已經想象出人工智能攻擊其創造者的橋段。更可能的危險是,人工智能會因天生缺乏語境而誤解人類的指令。近來一個著名的例子是人工智能聊天機器人Tay。對Tay的設計是,令其使用19歲女孩的語言模式與人生成友好的對話。但這臺機器終究無法界定其程序員設定的“友好的”和“恰當的”這樣的語言指令,反而變成了種族主義者和性別歧視者,不然就給出一些煽動性的回答。一些技術界人士聲稱,該實驗構思病態,執行不當。但這一實驗闡明了一個潛在含糊問題:在多大程度上能夠讓人工智能理解指令中包含的語境?在“冒犯”一詞的含義尚未得到人們普遍認同的情況下,什么媒介可能幫助Tay為它自己界定這個詞?我們能否在早期監測到并糾正一款在我們預定框架之外行事的人工智能程序?或者,人工智能放任自流后,會否不可避免地發展出輕微偏差,久而久之,這些偏差可能匯聚為災難,從而背離設計初衷?
其次,在實現預期目標的過程中,人工智能可能會改變人類的思維過程和價值觀。阿爾法狗采取了在策略上前所未見的走法,從而擊敗了圍棋世界冠軍。人類從未想到過這些走法,至今也沒有學會如何成功應對。這些走法是否超出了人腦的能力?或者,既然一位新的大師展示了這些走法,現在人類是否可以學習它們了呢?
在人工智能開始下圍棋之前,圍棋本身有著多種多樣的目的:玩家所追求的不只是勝利,還包括從中學習可能適用于生活其他方面的策略。相比之下,人工智能只知道一個目的:獲勝。它不是在概念上,而是在數學上,通過對其算法進行細微調整來“學習”。因此,在學習如何贏下棋局的過程中,通過與人類相異的弈棋方式,人工智能已經改變了游戲的本質及作用。這樣一種對勝利的單純堅持是否概括了人工智能的所有特征?
通過開發能對人類提問生成各種答案的設備,其他人工智能項目正在改變人類的思想。除了事實層面的問題(“外面是多少度?”)之外,關于現實的本質或生活的意義之類問題引發了更深層次的問題。我們是否希望孩子們通過與不受限制的算法進行對話來習得價值觀?我們是否應該限制人工智能對提問者的學習,借以保護隱私?假如是這樣,我們如何實現這些目標呢?
假如人工智能以指數級的速度比人類更快地學習,那么我們必須預計到,它同樣能以指數級的速度加快試錯過程,而人類的決策通常是經由這樣的過程做出的。也就是說,人工智能犯錯誤的速度要快于人類,所犯錯誤的規模要大于人類。正如人工智能的研究人員總是暗示的那樣,在程序中寫入要求得出“道德的”或“合理的”結果的警告指令,也可能無法改變這些錯誤。所有學科都在人類無法就如何定義術語達成一致的基礎上發展。因此,人工智能是否應該成為它們的仲裁者呢?
第三,人工智能可能達到預期目標,但無法解釋其結論的基本原理。在某些領域,如模式識別、大數據分析和游戲等,人工智能的能力或許已超過人類。假如其計算能力繼續迅速加強,人工智能或許很快就能做到優化場景,其方式至少與人類優化場景的方式稍有不同,也可能截然不同。但到那個時候,人工智能是會否以人類能理解的方式,解釋為什么它的行動是最優的?或者人工智能的決策會否超越人類語言和理性的解釋能力?縱覽人類歷史,諸文明形成了解釋周遭世界的多種方式:中世紀時,用宗教;啟蒙運動時,用理性;在19世紀,用歷史;在20世紀,用意識形態。關于這個我們正在邁入的世界,最困難而最重要的問題是:假如人類意識本身的解釋能力被人工智能超越,社會也無法再用對它們有意義的術語來解釋它們所處的世界,人類意識將會變得如何?
機器世界將人類經驗降為數學數據,并由人類自己的記憶對此進行解讀,在這樣一個世界中,意識該如何被定義?誰能對人工智能的行為負責?應該如何給它們的錯誤歸責?人類設計出的法律體系能否適應思想比人類更深邃,并可能戰勝人類的人工智能所進行的活動?
最后,人工智能(artificial intelligence)一詞可能被誤用了。可以肯定的是,這些機器可以解決復雜且看似抽象的問題,這些問題以前只服從于人類的認知。但是人工智能的獨特之處在于,它們的思考方式是人類所不曾設想過或采取過過的。更確切地說,人工智能擁有史無前例的記憶力和計算能力。由于在這些領域具備天然優勢,人工智能可能贏下布置給它的任何游戲。但對我們人類的目的而言,這些游戲不只關乎獲勝;它們與思考有關。假如我們把數學過程當作思考過程,并且自身嘗試模擬該過程或對結果來者不拒,我們就有失去思考能力這一人類認知本質的危險。
最近設計出來的程序阿爾法元(AlphaZero)展現了這一演進的意蘊。該程序的國際象棋水平在大師級之上,其行棋風格在國際象棋歷史上前所未見。在短短幾個小時的自我對弈中,它就達到了人類用1500年方能達到的技術水平。提供給阿爾法元的只是國際象棋的基本規則。人類和人類產生的數據都不是其自我學習過程的一部分。假如阿爾法元能夠如此迅速地達到國際象棋的大師級別,人工智能將在五年內發展到何種地步?人工智能對人類的認知又將產生什么普遍影響?在這個本質上由加速的選擇構成的過程中,倫理的角色是什么?
協調人工智能與人文傳統
通常,這些問題是留給技術人員以及相關科學領域的知識分子去回答的。哲學家和人文領域的其他人曾經幫助塑造了從前那些有關世界秩序的概念,但由于缺乏對人工智能機制的了解或震驚于人工智能的能力,他們往往處在不利地位。相比之下,科學界受到鼓勵,探索實現人工智能新成就的技術可能性,技術界則正專注于其巨大產業規模的商業前景。它們的激勵在于挑戰發現的限度,而不是理解那些發現。至于政府治理,就其涉及該課題的領域而言,相較于探索人工智能已經開始形成的對人類生存境況的轉變,它更可能是去研究人工智能在安全和情報方面的應用。
啟蒙運動本質上發軔于由新技術傳播的思想洞見。我們的時代正向相反的方向行進。在尋求指導思想的過程中,這個時代已經形成了一項潛在的主導技術。其他國家已將人工智能作為國家層面的重點項目。美國還沒有在國家層面系統地探索過其全部范圍,研究其可能的影響,或開啟最終學習的進程。尤其是,從協調人工智能與人文傳統的角度而言,人工智能應該被列在國家議程中的最優先位置。
如同我不了解技術一樣,人工智能的開發人員對政治和哲學也缺乏了解,他們應該把我在這里提出的一些問題提問給自己,以將答案嵌入他們的工程設計中。美國政府應該考慮成立一個由杰出思想家組成的總統委員會,來幫助制定國家遠景規劃。有一點很明確:如果我們不盡快開始這項工作,我們很快就會發現起步太遲了。