對此,近日以馬斯克和DeepMind的三位聯合創始人為首的科技界高層組成的聯盟近期簽署了一份承諾書,內容是他們所屬的公司在未來將不會研發擁有AI的智能武器。
簽署者主要擔心若開發致命型的殺人武器,會對人類產生威脅,因此互相共同承諾既不參與創造,也不支持致命性自主武器技術的開發。
承諾中警告:在人類使用人工智能武器“選擇和接觸”目標時,如果決定射擊目標前沒有人為干預,那么最終結果將會導致道德淪喪,更嚴重的結果將會對現實生活產生危害。簽署此次承諾書的人表示,“從道義上講,不應該把結束人類生命的決定委托給機器。而實際來看,如果此類武器在未來得到擴散,那么最終的結果將危及每個國家甚至牽連到每個人的生命安全”。
這一承諾也直接表現出業界對于AI的討論,高科技公司的管理層已經從單純的聊天轉向用實際行動來證明他們的承諾。
據悉,這次簽署者包括 160 家與 AI 相關的公司和組織,以及超過2400名專家。其中包括Google DeepMind、ClearPath Robotics,歐洲人工智能協會、XPRIZE 基金會、硅谷機器人,倫敦大學學院以及特斯拉特斯拉總裁馬斯克(馬斯克),以及 Google Research 的 Jeffrey Dean 和英國議會成員Alex Sobel等人。
專家小組反對無需人類操控就可以自主識別、瞄準和殺人的武器化AI系統。但是不包括像是軍用無人機這樣的東西,因為這類武器可以透過人類飛行員來進行遠程便是與操作,選擇殺死目標。主要認為人命不應該交由機器決定,同時呼吁各國政府和領導人,應建立國際法規予以控管。
麻省理工學院物理學教授泰格馬克在一份聲明中表示,人工智能領導人從簡單的交流變成了真實的行動,這一承諾實現了政客們從來沒有做過的事,那就是承諾人工智能應用到軍事設備時將會受到嚴格的限制。泰格馬克還說:“AI武器就像生化武器一樣令人厭惡和讓人感到不安,AI武器應該像對待生化武器一樣處理。”
軍事分析家保羅曾經寫了一本關于未來戰爭和人工智能的書,他在今年告訴媒體:“現在已經沒有了足夠的‘能力’來推動國際間的自動化武器管制。因為沒有任何一個西方國家的核心集團愿意參與進來,然而這個團體卻非常重要。曾經的武器禁令是由加拿大和挪威等國家主導的,然而影響力卻微乎其微。
外媒Task&Purpose日前刊文,稱人工智能武器將對美國軍方正在實施的第三次抵消戰略至關重要。機器學習、人機協作、以及無人機群都是可能會破壞國家之間的平衡的潛在系統,一些戰術已經在戰場上被使用了。例如,俄羅斯聲稱無人機群襲擊了其在敘利亞的一個基地。
在戰場上早期采用類似于AI的策略,投入此類技術的國家數量之多,以及展示其潛力的現有武器系統,所有這些似乎都表明人工智能武器將是非常有效的戰爭工具。因此,雖然人們應該對工具的倫理和限制進行有力的討論,但不圍繞工具的使用制定出一個強制的禁忌或許還有一定的難度。