有關它的任何風吹草動,都會時刻牽動著所有人的神經。二戰末期,美軍在廣島、長崎投放的原子彈,現在仍是縈繞在世人心間的噩夢。冷戰期間,美蘇爭霸制造的核武庫,已然將地球捆綁在了巨大的炸藥桶上。朝鮮在大國之間“如魚得水”地周旋,依靠的正是潛在的核武器制造實力;而最近美國單方面退出“伊核協議”的行為,注定進一步擾亂本就脆弱的中東秩序和地區核平衡。不難預見,在未來很長一段時間內,核戰爭的陰云還將繼續籠罩在這個星球之上。
當前,人工智能已經成為了一股不可阻遏的科技潮流,它正在與生活的方方面面以及各個學科領域生發著奇妙的化學反應,“AI+”注定將是接下來幾年中被提及的最頻繁的詞組之一。在人工智能的時代,它的觸角將不可避免地最終伸向軍事領域的最敏感地帶——核武器。這兩者的結合可能會給人類帶來什么樣的后果呢?
最近,美國著名智庫蘭德公司(RAND Corporation)發布了一篇題為“人工智能將如何影響核戰爭”的研究報告,就專門論述了“AI+核武器”的問題。在這一報告中,作者摒棄了常見的那種“AI使用核武器毀滅人類和世界”的好萊塢式的聳人聽聞的預測,而是先詳細介紹了自冷戰延續至今的有關核武器的共同毀滅機制( Mutual Assured Destruction,指對立雙方中如果有一方率先使用核武器,則另一方則會立即發送核反擊,最終導致沖突升級,兩方都會被毀滅)的緣起和發展情況,并進而將目光投向了更為務實的AI應用場景:追蹤/定位導彈;輔助決策是否使用核武器。關于這兩個場景,該報告都從正反兩面論證了AI可能在核戰爭中起到的作用:倘若將AI應用至追蹤/定位導彈上,將會大大提高所在國對假想敵攻擊的監測精度,信息的愈加透明化,可能會增進雙方的戰略互信,從而降低爆發核戰爭的可能性;然而,一旦AI的導彈追蹤/定位功能出現了紕漏,核戰爭被引發的概率將會大大提升。同理,AI決策輔助對核戰爭也有著雙向的影響。換言之,建立在 M.A.D.機制上的脆弱的核平衡,將會因為AI 的介入和使用而大概率地增加了許多不穩定的因素。他們接著在分析的基礎上指出,“日益多極化的戰略環境中,人工智能在2040年之前極有可能導致核武器平衡局面的打破以及當前核威懾手段的失效”。最終,作者亮明宗旨,即試圖弄清楚AI與核戰爭之間的關聯,并確保規避AI的負面影響,最大限度發揮其積極作用。
其實,蘭德公司在這里分析、預測的事情并不新鮮。在計算機的發展史上,由技術引發的安全隱患一直都存在——特別是當它與危險的核武器聯系在一起時。最近幾十年,人類因計算機技術而最接近毀滅的時刻莫過于1983年9月的一個晚上:時任蘇聯國土防空軍中校的斯坦尼斯拉夫·彼得羅夫(Stanislav Petrov, 1939-2017)正在值夜班,突然導彈預警系統發出急促的警報,電腦讀數顯示有數顆美國導彈正在向蘇聯本土襲來,按照流程,彼得羅夫應該立即向最高軍事長官報告此事,并對美國發動報復性的核打擊,一場改變人類命運的核戰爭似乎近在眼前;然而,在彼得羅夫與其他地面監測部隊聯系后,他冷靜地確認這是一例系統誤報事件,而非美國真的向蘇聯發射了導彈;幾分鐘過后,事實證明彼得羅夫的判斷是正確的。倘若沒有彼得羅夫的人工復核,計算機差點就引發了一場毀天滅地的人間浩劫。
然而,人類的存亡安危不能總依靠著一時的僥幸。隨著AI越來越多地接管、替代人類的工作,我們必須要時時刻刻對這一技術的負面影響保持警惕;在將AI應用至軍事領域時,我們尤其需要嚴謹與慎重,因為極有可能一不小心,人類搬起的石頭就會砸向自己的腳,帶來難以預估的重大損失。
愛因斯坦曾不無幽默地表示:“第三次世界大戰將要使用的武器我并不知道,但是第四次世界大戰將會用木棍和石頭開戰。”沒有人真的愿意看到這一幕的發生,但是一旦發生核戰爭,AI又能起到什么積極的、正面的作用呢?
我們先設想一個情景:某個5月的一個周一上午11:15,一輛看似普通的貨車駛進了美國華盛頓市中心的第16街和K街交匯處,就在白宮北邊的幾個街區。在車里,自殺式炸彈襲擊者悄然按下了開關。核彈轟然爆炸,整個城市街區瞬間化為烏有,方圓一英里內的建筑物全被摧毀,數十萬人在廢墟中死亡或垂死掙扎。電磁脈沖使周圍5公里內的手機失效,整個城市的供電網絡全部中斷。風把炸彈產生的蘑菇云變成了放射性塵埃,并向東蔓延到馬里蘭州的郊區。各條公路上很快就擠滿了人,有些人試圖逃離,但更多的人在尋找失蹤的家庭成員或尋求醫療幫助。簡言之,白宮陷落了。
這些雖然都是虛構的,但卻有著嚴肅的目的。假想因核攻擊而導致白宮陷落的故事線被稱為“國家計劃情景1”(NPS1),圍繞著它的研究起源于20世紀50年代,美國國家安全和應急管理部門希望在假想一旦成真之前,找到一套能在核爆后最大程度上止損的災難應急處理方案。而一套穩妥的應急方案的提出,僅依靠靜態的統計數據是遠遠不夠的;倘能建立起動態模型來摹擬真實的爆炸場景,控制事件發生場景當中的變量與不變量的話,對癥下藥的應急方案相對來說就更為可靠。
最近,一個來自弗吉尼亞理工大學的科研團隊就針對這點開始了研究實踐。首先,他們建立起了在電腦上建立了一個巨大的華盛頓特區的電子模型,這個模型盡可能詳盡地包括了該地區建筑物(學校、醫院、防空設施等)的設計參數,管道線路的鋪設與走向,氣候的歷史數據,地形河流的自然因素等內容,除此之外,他們還在這一虛擬城市中,放置了大約73萬個代理(agent)——從統計上看,在年齡、性別和職業等因素上,與華盛頓特區的真實人口情況相差無幾,每一個代理都是獨立的子程序,能通過切換多種行為模式,以合理的方式響應其他個體的行為以及可能到來的災難性事件。其次,在這個模型的任一點制造出一場虛擬的核爆炸。通過控制核武器的當量、爆炸發生的時間及地點等因素,觀察虛擬代理們的行為方式,以及由此帶來的種種問題,如交通擁堵、醫療緊缺、電力崩潰、水源污染等。最后,根據核爆模擬情況,有針對性地制訂應急處理措施,反過來指導現實世界的基礎設施、規章制度的建設。受益于日益提高的計算機算力和AI技術的不斷成熟,這樣的模擬在細節上會越來越真實,越來越貼近現實世界——這同時意味著其現實指導意義越來越大。除了核爆炸,這樣的模型還適用于傳染性疾病的預防和治療、大流量交通設施的設計與規劃以及極端自然災害(干旱、颶風、海嘯等)下的管理與調控等問題上。
如此看來,未來AI無疑將會在公共安全領域的政策制定與應急管理上發揮重要的咨詢作用。但是,正如上文所說,沒有人愿意看到包括核戰爭在內的災難的發生,事后的止損,遠不如防患于未然。
當年深度學習之父Geoffrey Hinton從美國北遷至加拿大,正是出于對人工智能軍事化的本能厭惡;近幾個月來,谷歌3000余名員工聯名反對美國國防部的Maven計劃(Project Maven),以及包括Hinton在內的多位人工智能專家對韓國科學技術院大學(KAIST University)開發“殺手機器人”的抵制等行為,一方面顯示了廣大科研人員的良心與警惕性仍在,但在另一方面卻恰恰揭示了AI軍事化正在迅速到來的這一殘酷現實。在這樣的大背景下,我們必須要意識到:任何技術或工具都有可能是潘多拉的盒子,核武器如此,AI如此,AI+核武器更是如此。帶著荀子式的“性惡論”的眼光或者新盧德主義(Neo-Luddism)的觀點,去審視人工智能在軍事領域發展及應用,從而建立起一系列的原則與制度,來減少人為主動作惡或技術被動作惡的可能,要比傻乎乎地無條件擁抱技術進步要明智得多。
從這點來講,蘭德公司提出此份報告不可不謂及時。