殺戮還是仁慈?
關于人工智能用于軍事目的乃至于投放戰場,一向是許多國外科技專家極力反對的決定。科學家們警告說,智能化機器人很容易受到黑客的攻擊,它們可能被劫持,進而攻擊無辜的人群。
去年,116名全球人工智能和機器人領域的專家發表聯名公開信,呼吁聯合國采取行動禁止“自主殺人機器”,稱其為“恐怖武器”。今年4月,3000多名谷歌員工向谷歌首席執行官桑德爾·皮查伊聯名上書,反對該公司參與五角大樓的軍用人工智能Project Maven項目。該項目利用機器人深度學習和人工智能分析、應用計算機視覺技術,幫助美國防部從圖像和視頻中提取識別重點對象目標。谷歌高層被迫作出決定,Project Maven合同將于2019年到期,此后不再與五角大樓續簽。
包括美國太空探索技術公司首席執行官馬斯克在內的2400名機器人研究人員和工程師近日還在斯德哥爾摩宣誓稱,“絕不參與致命性自主武器系統的開發、研制工作。”
但與這些反對智能化武器觀點不同的是,美國《華爾街日報》29日提出完全相反的意見。該報道認為,從地毯式轟炸、大威力核彈到精確制導武器,人類距離精確化殺傷越來越近。“智能化武器只會減少戰爭中的誤傷和附帶毀傷,不會帶來更大的傷亡數字”。
報道特別強調,盡管近年來美軍無人機也多次發生誤傷平民的事件,但這并非是智能化武器的錯,而是情報識別出了問題。而五角大樓組建算法作戰跨功能團隊,發展Project Maven項目,正是為了更精確地識別、殺傷恐怖分子等敵人,防止誤傷無辜的平民,因此谷歌公司“如果真是為了和平,更加應該準備戰爭”。
軍用AI能干什么?
人工智能技術對于軍事乃至戰爭而言,遠不只是殺人機器人這么簡單。最初級的AI技術在眾多防空、反導預警體系中早已開始應用,許多防空和導彈防御系統的操作人員與系統通過協作并識別和確認敵方目標后,發射攔截導彈,隨后由系統自主探測并截獲目標。
近年來依托大數據發展的AI技術,讓各種武裝機器人和無人機成為智能化武器的雛形,這也是科學家們最為反對的目標。美國陸海空軍和海軍陸戰隊都開發了多款智能化武器平臺,美軍X-47B無人機曾在多艘航母上成功自主起降。美國陸軍、海軍陸戰隊還分別為M1A2主戰坦克和“阿帕奇”武裝直升機研發僚車、僚機,試圖開發出以“有人駕馭無人”的作戰新模式。
而在更高層級的戰爭指揮和作戰規劃方面,人工智能也在不斷取得突破。例如以前規劃一次20分鐘的大型空中作戰需要40人到50人耗時12小時,而在AI的協助下,該規劃有望在1小時內完成。據報道,俄軍正在應用AI和大數據技術,模擬用軟件代替士兵做出作戰決策,以應對迅雷不及掩耳的軍事打擊。
智能化軍備競賽已開始
2008年,美海軍研究辦公室就發表報告承認,運用于戰爭的自主機器人無法承擔法律責任。“目前機器人無法分辨平民和士兵,無法為自己的行為負責。在未來的無人化戰爭中,作戰主體遠離戰場,無人化武器將以一種‘非人性化’的方式殺人,既不懂承擔戰爭危險的倫理性,也沒有對戰爭苦難的情感體驗”。類似電影《終結者》中的人類末日場景更是諸多科學家擔心的終極噩夢,然而截至目前,國際上對軍用智能化技術沒有任何具體規定,國際社會也未明確支持一個限制或禁止此類武器系統的條約。
值得注意的是,美軍推出的“第三次抵消戰略”認為,以智能化軍隊、自主化裝備和無人化戰爭為標志的軍事變革風暴正在來臨,美軍計劃2035年前初步建成智能化作戰體系,對主要對手形成新的軍事“代差”,到2050年前美軍的作戰平臺、信息系統、指揮控制全面實現智能化甚至無人化,實現真正的“機器人戰爭”。美國國防部去年8月表示,未來AI戰爭不可避免,美國需要“立即采取行動”加速AI戰爭科技的開發工作。俄羅斯也在開發多個智能化無人作戰平臺項目。俄軍的“天王星-6”無人掃雷車已經在敘利亞戰爭投入使用。蘇霍伊公司的“獵人”遠程重型無人機也將于今年年底首飛。根據歷史經驗來看,人類的理性恐怕很難阻止新技術軍事化的步伐。軍用智能化時代的到來,可能只是一個時間問題。