美國前國務卿、外交家、國際問題專家亨利·基辛格在2018年6月號美國《大西洋月刊》雜志刊發評論文章:《啟蒙如何終結》。他認為,“無論從哲學層面來說,還是從人類智力層面來說,乃至從每一個層面上來說,人類社會還沒有為人工智能技術的崛起做好準備”。
主講人向聽眾宣告,一個計算機程序很快就將向圍棋界的國際冠軍發起挑戰,隨后他介紹了那個計算機程序的運行方式。電腦竟然能夠掌握比國際象棋更加復雜的中國圍棋的對弈規則?這令我十分吃驚。在中國圍棋的比賽中,每一位棋手手執180枚或181枚棋子(這取決于兩位棋手選擇黑白何種顏色的棋子,黑子181枚,白子180枚),比賽開始時棋盤是空的,隨后兩位棋手輪流在棋盤上落子。判定圍棋取勝的標準是,看哪位棋手能通過更加高明的策略更有效地占據棋盤上的空位,從而最終困死對手。
主講人表示,計算機程序并非在編制過程中就獲得了高超的對弈能力,這種能力是在實踐過程中通過自我訓練逐漸習得的。在圍棋規則的框架下,計算機程序已經與自己對弈了無數局,它從錯誤中吸取了教訓并借此完善了算法。經過這一過程之后,計算機程序的圍棋水平已經遠遠超過了為其編程的工程師。就在演講結束幾個月之后,一個名為“阿爾法狗”(AlphaGo)的人工智能計算機程序毫無困難地戰勝了世界上最頂尖的圍棋選手。
當我聽到主講人為這一技術進步喝彩時,作為一名歷史學家和客串政治家,我的思路不再跟隨他的話語,而是停在了那里。那些能夠自主學習的機器能夠通過獨特的方式獲得知識,并且能夠將獲得的知識應用在可能超出人類理解的領域,這會對人類歷史產生怎樣的影響呢?這些機器之間能夠互相交流嗎?在從未遇到過的行為選項面前,這些機器又會如何作出判斷呢?面對西班牙文化,印加人(南美洲安第斯山區克丘亞族的一支,講克丘亞語,他們的“王”被稱為“印加”;1532年,最后一任印加帝國國王被西班牙侵略者處以死刑,隨后印加帝國淪為了西班牙的殖民地——觀察者網注)曾是感到迷惑甚至心懷畏懼的;如今面對人工智能的崛起,人類會步印加人的后塵嗎?人類是否正處于一個新的歷史階段的起點呢?
由于我自身缺乏在人工智能領域的專業能力,在幾位分別來自相關技術行業和人文領域的朋友的建議和配合下,我組織了幾場關于人工智能技術的非正式對話會。經過對話會上的討論之后,我對這個問題的憂慮反而加深了。
迄今為止,改變現代歷史發展軌跡程度最深的技術進步莫過于15世紀印刷機的發明,它使儀式性的教條被對經驗知識的探索所取代,它使宗教時代落幕,使理性時代得以開啟。人類對自然的理解和科學體系的建立取代了宗教信仰,它們成為判定人類意識覺醒的重要標準。人們將信息存儲起來,而且信息在規模日益擴大的圖書館中得以系統化。塑造當代世界秩序的思想和行為正是發端自理性時代。
不過在當下這場全新的、甚至更加徹底的技術革命中,當代世界秩序正面臨一場顛覆性的變革。我們很難充分判斷這場變革的影響,這場變革甚至可能到達一個高潮,屆時我們的世界將嚴重依賴由數據和算法驅動的人工智能機器人,而道德倫理和哲學規范將完全受到那些機器人的無視。
我們身處其中的互聯網時代已經給人類帶來了一些麻煩,而人工智能時代的到來很可能會使情況變得更加復雜。當年啟蒙運動(the Enlightenment)所尋求的是將傳統真理(traditional verities)置于已被解放的、具有分析能力的人類理性面前接受檢驗。而如今互聯網則是通過對不斷增加的數據的積累和處理來定義知識。在互聯網時代,人類的認知能力失去了人的個性特征,一切都以數據形式存在,數據成了這個時代的統治者。
相較于在具體語境中思考信息的意義或將信息賦予明確的概念,互聯網用戶更看重信息的檢索和處理。他們很少在互聯網上就歷史或哲學問題檢索信息,一般來說,互聯網用戶的信息檢索行為與他們當下的實際需求直接相關。在這一過程中,搜索引擎獲得了互聯網用戶信息檢索偏好的有關信息,這使其算法能夠對搜索結果進行個性化處理,而搜索引擎甚至可能將用戶的信息檢索偏好提供給第三方,以用于政治或商業目的。真相變得不再絕對,在海量信息面前,智慧的作用恐怕也要弱化。
互聯網用戶們變得不再擅長獨立思考,他們開始被社交媒體上的各種觀點所左右。事實上,許多網民使用互聯網的目的僅在于通過上網來沖淡他們內心十分恐懼的孤獨感。上述因素削弱了人們形成并維護自身信念的剛毅品質,只有孤獨的行者才能一直堅持內心的信念,而創造力的本質正在于這種對自身信念孤獨的堅持。
此外,互聯網對政治的沖擊尤為明顯?;ヂ摼W能夠使社會上很多亞群體獲得更多曝光度,他們的特殊訴求或苦衷能夠通過網絡獲得更多人的了解,這打破了人們以往對何為政治優先事項的認識。但政治家們也由于受到這些散亂壓力的影響,無暇思考問題產生的背景,這擠壓了政治家們對未來進行長遠規劃的空間。
互聯網時代的快速閱讀不利于人們進行深度思考;互聯網對奪人眼球的信息的影響力進行了放大,而那些經過縝密思考寫就的文章卻在網絡上難以獲得大面積傳播;互聯網時代的價值觀受到亞群體觀點的嚴重影響,而在這一過程中人們十分缺乏深入的思考。盡管互聯網的出現為人類社會做出了巨大貢獻,但由于其影響利弊相抵,它未來恐怕會將槍口對準自己也未可知。
互聯網的出現和計算能力的提高為海量數據的積累和分析提供了極大便利,人類的理解能力因此獲得了前所未有的提升。在這一過程中,意義最為重大的技術創新出現在人工智能領域。人工智能技術能夠通過類似人腦才具有的信息處理能力進行創新性思維并解決復雜的、看似抽象的問題。
這已經遠遠超出了我們對“自動化”的理解。所謂“自動化”僅是針對手段而言,自動化技術通過對生產工具進行機械化或合理化改進來實現確定的生產目標。與自動化技術大為不同,人工智能技術是針對結果而言的,人工智能可以自行確定自身行為的目標。由于在某種程度上來說人工智能所實現的目標部分取決于其自身,所以人工智能具有一種內在的不穩定性。人工智能系統在實際運行過程中不斷獲取新的數據并即時對這些新數據進行分析,在分析結果的基礎上,人工智能系統可以不斷對自己的算法進行優化。
所以說,人工智能系統是一個不斷變化的、處于動態中的系統。在這一動態過程中,人工智能系統表現出了一種此前被認為僅有人類才會具有的信息處理能力。它可以對未來做出戰略判斷,有些判斷是基于以代碼形式事先注入的數據(圍棋規則),有些判斷則是基于人工智能系統自身所收集到的數據(與自己進行100萬次對弈過程中出現的各種情況)。
以無人駕駛汽車為例,它體現了傳統上以軟件驅動、完全受到人類控制的車載計算機行為與滲透進駕駛過程每一個細節的人工智能行為這兩者之間的區別。人類駕駛汽車時需要面對數不清的各種情況,并需要在每一具體情況下做出特定的判斷,我們根本不可能預先想到所有的情況并事先為每一種可能的情況編寫程序。我們以一個十分有名的假設為例來進行說明:當一輛由人工智能控制的無人駕駛汽車不得不在一位老人和一個小孩之間做出選擇必須撞向其中一人時,它會如何選擇呢?其背后的原因何在?它在做出選擇時會更看重哪些因素?它能夠自圓其說嗎?如果人工智能程序能夠與人類交流的話,它很可能會這樣回答上述問題:“我不知道,我駕駛汽車時遵循的是數學原理,我不懂人類的那套規則”,它也可能這樣回答:“你搞不懂我的,我曾受到大量訓練來應對各種駕駛情況,但我從未受到訓練向人類解釋為何我會那樣應對那些情況”。這就是人工智能無人駕駛技術當下的現實,不過不出10年,無人駕駛汽車很可能將行駛在我們的每一條街道上。
截至目前,人工智能技術僅在有限幾個領域里獲得了應用。如今,人工智能科學家們正試圖將這一技術的應用領域擴大到社會生活的各個方面,未來的人工智能將可以執行多種任務。在不遠的未來,將有越來越多的人類工作被人工智能算法所取代。不過,這些算法只能對所觀察到的現象進行數學性理解,算法并不能理解現象背后的原因。令人感到矛盾的是,隨著我們的世界越來越透明,人工智能算法卻會變得越來越神秘。未來的新世界與我們早已習慣的今日世界會有哪些不同呢?我們將如何在那個新世界里生活呢?我們該如何管理人工智能?該如何改進它?該如何避免它對人類造成傷害?該如何避免比人類更快、更好掌握某些能力的人工智能(對它來說欲獲得那些能力僅需處理一些數據)使人類的能力趨于退化或使人類的境況趨于惡化?
人工智能遲早將為醫學科學、清潔能源和環境保護等領域帶來極大的進步。不過,正因為人工智能所面對的未來正處于不斷演進之中,它為我們帶來的結果就內在地具有某種模糊性和不確定性。在這方面,有如下四點值得我們注意:
首先,人工智能可能為我們帶來意想不到的后果。在科幻小說的情節中,人工智能機器人已經將其創造者列為攻擊目標了。不過,另一種情況的可能性更大,由于人工智能并不是在一個完整的語境中理解信息的,它很可能無法正確理解人類的指令。最近一個有名的例子來自一個名為Tay的通過自然語言同人進行交流的人機智能對話系統,科學家的設計初衷是希望Tay能夠以一個19歲女孩的身份和語言特征與人們進行友善、理性的交談。不過,結果證明,這個智能對話系統并不能真正理解“友善”和“理性”的含義,Tay所使用的語言反而體現出種族主義者和性別歧視者的一些特征,有時候“她”講的話甚至能將人激怒。
一些專業技術人員認為,人機智能對話系統Tay的設計思路不夠合理,具體研發過程也出現了很多問題。不過,我們仍然能夠借此就其背后的模糊之處提出一些疑問:我們能在多大程度上使人工智能系統理解人類指令的具體語境?當人類也未能就“冒犯”一詞的準確含義達成共識的時候,我們能通過什么辦法幫助Tay獲得“冒犯”一詞的準確概念?當人工智能系統的運行偏離其設計者的意圖時,我們能早期發現并進行修正嗎?如果我們對人工智能系統不施加任何干預,它會不會不可避免地在初期略微偏離設計意圖甚至久而久之沿著偏離的軌道滑向災難性的深淵?
第二點,在實現既定目標的過程中,人工智能可能會改變人類的思維方式和價值觀。阿爾法狗在擊敗圍棋世界冠軍時所采用的策略是前所未見的,人類從未想到過圍棋會有那種走法而且至今也未能想出針對那種走法的應對之策。阿爾法狗所采用的圍棋走法是否已經超出了人類大腦的理解能力?人類是否能夠學會那種走法呢?
在人工智能涉足圍棋領域之前,人類在進行圍棋對弈時往往抱著各不相同的甚至是多層面的目的:棋手們所追求的不僅是贏得棋盤上的勝利,他們還希望通過對弈過程領悟出可以在生活中其他領域獲得應用的策略和智慧。而對于人工智能來說,它在棋盤上的目的只有一個:戰勝對手。
人工智能不是像人類那樣通過對概念的理解而是通過數學運算來進行“學習”的,具體表現在對算法的微調。所以,在學習如何贏得圍棋比賽的過程中,人工智能與人類的思維方式是完全不同的,它已經改變了圍棋對弈的本質以及人類圍棋對弈的傳統思維范式。這樣一種對勝利毫無雜念的渴望是否是所有人工智能程序的共同特征呢?
已經有人工智能項目希望通過研發能夠回答人類各種問題的設備來改變人類的思想。這種設備能夠回答一些事實性的諸如“現在外面氣溫如何”這樣的問題,但在回答關于存在本質或人生意義這樣的問題時,你會發現它可能給人類帶來一些深層的憂慮:我們真得愿意自己的孩子在與不受束縛的人工智能算法進行交談時形成自己的價值觀嗎?為了保護提問者的隱私,我們是否應該限制人工智能算法對提問者的了解呢?在得出上述兩個問題的答案之后,我們又該如何確保人工智能遵從我們的意愿呢?
如果人工智能的學習速度是人類的指數倍,那么我們應該想到,它同樣能以指數倍的速度進行試錯,而人類的決策通常就是通過試錯才做出的。也就是說,人工智能犯錯的速度要快于人類,其犯錯的嚴重性也是人類無法相比的。人工智能科學家們通常認為,在人工智能程序中注入“道德”或“理性”的指令也無濟于事,它們并不會使人工智能算法所犯的錯誤有絲毫減輕。實際上,人類所有的學科都是在人們沒有就各學科的重要概念(諸如“道德”、“理性”這樣的概念)達成共識的前提下發展起來的。如此說來,人工智能是否會成為超越所有這些具體學科理論體系的一門終極學科呢?
第三,人工智能有能力實現它被賦予的既定目標,但人工智能無法解釋它實現目標過程背后的基本原理。在模式識別、大數據分析和游戲等領域,人工智能或許已經超越了人類。如果人工智能的計算能力繼續快速進步,那么它或許很快就能夠以與人類略為不同或截然不同的方式對場景進行優化。但到了那個時候,人工智能是否能夠以人類能理解的方式來證明它的場景優化比人類做得更好呢?人工智能的決策是否會超越人類語言的解釋能力或人類理性的理解能力呢?
縱觀人類歷史,我們創造了很多理解周遭的世界的方法——在中世紀,我們通過宗教來理解世界;在啟蒙時代,我們訴諸理性;在19世紀,我們通過歷史去分析世界;而到了20世紀,我們又找到了意識形態這個工具。至于當下這個我們正在投身其中的新世界,一個最難回答然而也最為重要的問題在于:如果人類個體對客觀世界的認知能力被人工智能所超越,如果人類社會再也無法通過自己能夠理解的方式去解釋這個世界,屆時人類意識本身會落入怎樣的境遇呢?
在未來的人工智能世界里,人類經驗在機器眼中不過是一堆可以用自身內存處理的數據,從這一角度來說,人類意識又該如何定義呢?誰該為人工智能機器人的行為負責呢?當人工智能犯下錯誤時,責任歸屬該如何劃定呢?當人工智能的思想比人類更加深邃、其行動能力比人類更加強大時,由人類制定的法律體系還能夠對人工智能的行為做出裁定嗎?
最后,“人工智能”(Artificial Intelligence)這個詞可能用得并不恰當。不可否認,人工智能機器人能夠解決很多非常復雜且表面看起來非常抽象的問題,這些問題此前都是在人類認知能力的參與下獲得解決的。但人工智能的獨特之處在于,它的“思維方式”是人類此前從未想到過的,更是此前從未采取過的?;蛘呖梢赃@樣表述,人工智能前所未有的記憶能力和計算能力是其“思維方式”有別于人類的關鍵。由于在上述兩方面的壓倒性優勢,人工智能可以在人類給它安排的任何游戲中勝出。
但對于人類而言,我們在參與游戲活動時,“贏”并非唯一的目的,我們還希望在游戲中享受思考的樂趣。當我們將人工智能的數據處理過程當作思考過程親自進行模擬,當我們將這一過程得出的結果視為人類思考的結果,那么人類真正的思考能力就有可能退化,而思考能力正是人類認知能力的核心。
最近新推出的人工智能程序“阿爾法零”(Alpha Zero)就體現了上述趨勢。這款人工智能棋類程序的國際象棋水平在大師級之上,它的行棋風格在國際象棋歷史上也是前所未見的。僅僅通過幾個小時的自我對弈訓練,“阿爾法零”就獲得了人類用1500年才能達到的國際象棋水平,而它最初具備的僅僅是國際象棋的基本規則。在“阿爾法零”自我訓練的過程中,沒有任何人參與,也沒有任何來自人類的對弈數據被注入該人工智能程序。如果“阿爾法零”在短短幾個小時之內就獲得了國際象棋大師的對弈水平,那么5年之后,人工智能技術將發展到怎樣的高度呢?人工智能對人類的認知能力會產生怎樣的影響呢?從本質上來說,人工智能所做的其實是對選擇過程進行加速,那么倫理道德在這一過程中又扮演著怎樣的角色呢?
一般來說,此類問題應該留給技術人員以及相關科學領域的專業人士去回答。哲學及其他人文學科領域的學者們曾在“世界秩序”這一概念的塑造方面貢獻了自己的力量,但由于他們對人工智能程序的運行機制缺乏理解或者干脆被人工智能的表現所震驚以至于對其心生敬畏,他們在分析上述問題時并非處于很合適的地位。相比之下,科學界在十分興奮地探索人工智能在諸多領域獲得成功的技術可行性,而技術界也在為人工智能未來規模巨大的商業前景感到鼓舞。科學界和技術界這兩個群體都在探索推進人工智能技術進步的邊界,但他們并沒有花太多時間試圖去理解這種技術進步到底意味著什么。至于我們的政府,就其工作內容而言,與思考人工智能所產生的對人類未來生存境況的影響比起來,他們對人工智能技術在國家安全和情報工作方面的應用似乎更加感興趣。
“啟蒙運動”從根本上來說是由新技術出現所導致的人們對我們這個世界在哲學層面的理解所發生的變化。而我們當下的時代與啟蒙時期相比,在技術進步和哲學思考的互相作用方向上是相反的。我們一直在尋求一種指導綱領性的哲學,而在尋求這種哲學的過程中,我們卻創造出了一種很可能將主導一切的技術。其他很多國家已將人工智能列為重要的國家級項目,但美國甚至還沒有開始對這項新技術所涉及的應用范圍以及它可能在各層面造成的影響進行系統性研究,而且為了避免被人工智能取代,我們在人類的終極學習(ultimate learning)領域也還沒有啟動任何計劃。鑒于人類人文主義傳統(humanistic traditions)的命運與人工智能技術密切相關,美國必須在國家層面對這項技術的發展保持高度關注。
就像我不了解人工智能的技術細節一樣,人工智能技術領域的研發人員們對政治和哲學也是缺乏認識的。他們應該把我在本文中提出的問題也提給自己,并在今后的研發過程中將那些問題納入考慮。此外,美國政府應該成立一個由各領域杰出思想家組成的總統委員會以便他們在國家層面協助制定未來人工智能技術發展的遠景規劃。
有一點是明確的:如果我們不盡快行動起來,過不了多久我們就會發現一切已經太遲了。