這場圍繞人工智能武器道德問題的辯論涉及到每個人,從倡導團體、政府官員到谷歌工程師。許多人認為人工智能武器帶有非常重要的道德問題,這就引出了一個疑問,這些道德問題以及反人工武器倡導組織的努力是否會導致人工智能武器被禁止使用或者引發強烈禁忌的出現?有些人認為 ,國際協議足以阻止AI武器被應用于世界軍隊。然而,圍繞人工智能武器使用禁忌的討論取決于更為直接的因素:它們在戰場上的有效性。
今年4月,谷歌員工以非常公開的方式抗議公司參與五角大樓計劃(Pentagon program),該計劃使用人工智能來解釋圖像以改進無人機對目標的攻擊。當然,人工智能武器的風險和道德問題是真實存在的(就像任何新的戰爭技術一樣)。此外,大多數人工智能武器的反對者通常都指出了這樣一個道德問題:使用計算機算法來選擇和消除人類目標,而控制過程卻沒有人類參與。
然而,人工智能武器所帶來的危機已超出了戰爭的道德問題。有些人指出 ,如果人工智能武器在世界范圍內擴散,危機會呈現出動態、不穩定的狀態。如果危機涉及的兩個國家能夠獲得可以輕易進行如此迅速破壞的武器,那么先發優勢(first mover advantage)可能會使這些國家走向戰爭而不是遠離戰爭。例如,人們常常認為先發優勢是第一次世界大戰爆發的原因。部隊的迅速流動和武器的進步使得軍事規劃人員相信那些先行動的人將擁有不可逾越的優勢。因此,如果對方正準備行動,那么你就會希望在對方行動前先發制人,AI可以創造類似的激勵。
(圖:2016年7月8日,第5海軍陸戰隊第3營在加利福尼亞州彭德爾頓海軍陸戰隊營地的模擬戰斗環境中測試了新設備,如多功能戰術運輸。)
大多數人認為化學武器使用禁忌之所以存在,是因為它們是一種特別可怕的戰爭武器,國際社會同意禁止使用它們。但是,國際社會禁止某些事物并不代表這些武器足以被阻止使用。姑且先把對人工智能武器的使用禁令是否切合實際放在一邊,人們在戰場上使用或不使用人工智能武器的唯一決定因素是一些更為直接的結果:有效性,如果AI武器有效,各國便會在戰場上使用它。
以往被開發的新戰爭工具也證明了這一點。在這些新武器被開發出來時,通常會被要求禁止使用。約翰·埃利斯(John Ellis)在《機槍的社會歷史》(The Social History of the Machine Gun)一書 中解釋了早期美國使用機槍的獨特性原因,以及機槍最終戰勝封建觀念并遍布戰場的原因。與此相對的是,在傳統觀念里,人們認為只有勇敢的人可以贏得戰爭,而不是依賴花哨的武器。
類似的武器禁忌以及對戰爭行為制定適當的規則提供了一些例子,我們可以從中獲知人們對人工智能武器的期許。1898年,來自世界各地的代表在日內瓦召開會議,討論戰爭中的規則和法律。人們尤為關心的是對化學武器的使用,化學武器是當時正在開發的一種新武器。大會期間,即使化學武器被規定禁止大規模使用,代表們仍然感到擔心。
最終討論得出的公約要求:禁止使用窒息性、有毒或其他氣體。只有兩個國家對這項禁止表示反對,美國和(支持美國的)英國。美國持反對意見的觀點是,各國應該盡一切可能利用所有手段盡快結束戰爭,他們認為禁止使用化學武器只會延長沖突的時間,最終導致更多人死亡。他們對美國內戰仍記憶猶新,這場戰爭僅在三十三年前結束,此外,這是一場人們預計會很快結束但并沒有并伴有大量傷亡的戰爭。
1898年,美國代表大使Alfred T. Mahan說:“對于新武器來說,總有一種反對意見認為具有戰爭危險的武器是野蠻、殘暴的,然而,人們最終還是采用了這種武器。”那么,為什么一種禁忌形式會圍繞特定的具有戰爭危險的武器,而不是其他具有戰爭危險的武器呢?理查德·普賴斯(Richard Price)觀察到 ,“縱觀歷史,許多新武器作為一種新技術被引入戰爭時都會引發道德抗議的呼聲。然而,正如長弓,弩,槍械,爆炸彈和潛艇等例子所表明的那樣,隨著這些創新被納入戰爭的標準技術,相關道德顧慮隨著時間的推移就會逐漸消失”。
最終,圍繞化學武器會形成使用禁忌。雖然這并不妨礙化學武器被人們使用(在最近的伊拉克戰爭中化學武器被多次使用),但這肯定會對其被廣泛使用產生威懾作用。但是什么推動了化學武器被有限使用呢?“禁忌”實際上能夠在不停止部分國家的情況下阻止了其他國家使用化學武器嗎?
由于化學武器在戰場上不是一種特別有效或有用的工具,所以認為禁忌是阻止其被廣泛使用的唯一因素,這種論點更不具有說服力。產生足夠濃度的氣體云是很困難的。在戰爭的迷霧中,在不同程度的“摩擦”下,瞄準目標變得更加困難。在精確制導武器的時代,武器無法擊中離散目標似乎尤其無用。此外,如果風起作用或改變方向,也不能保證部隊不會受到影響。這些限制使得這種武器只對已經處于極度絕望境地的領導人和政權具有吸引力。
現在對比一下潛艇的發展。潛艇最初是在化學武器被廣泛使用的同時被開發出來的,也曾受到類似的對待,人們認為潛艇是一種不光彩的武器,潛伏在地下,匿名殺死它們的目標。在不受限制的潛艇戰崛起時期中尤其如此。人們還呼吁禁止使用潛艇,1936年的倫敦議定書試圖對潛艇戰采取制定限制。
那么為什么化學武器發展成為禁忌而潛水艇沒有呢?這告訴我們圍繞人工智能武器使用禁忌的潛在發展趨勢是什么呢?這里考慮的三種新戰爭技術都引發并造成了重大的道德困境,并且仍然被許多人視為是不道德的。然而,在這兩個歷史例子中,無效的工具產生了一個禁忌,而有效的工具卻沒有。那么,人工智能將成為一種有效的戰爭工具嗎?
人工智能似乎極有可能成為戰爭的有用工具。盡管人們應該避免使用諸如“軍事革命(evolution in military affairs)”之類的術語,但很容易看到這種新型武器系統的前景。然而,人們不應該期待一場終結“現代系統(modern system)”戰爭的劇變。盡管人工智能武器可能會提高軍事效率,但隨后的對策發展可能會阻止它們顛覆現代的戰爭體系。
人工智能在軍隊中的承諾之一,似乎可以保證其被采用,這就是它的廣泛適用性。人工智能可以用來提高效率,不僅僅是作戰行動上。人工智能可以改善補給線,加強對新士兵的訓練,提高情報收集和處理的效率但人工智能在作戰行動中的有效性似乎特別有前景。人工智能并不是一個完全革命性的概念,它被應用到軍事領域,這僅僅是現代戰場數字化和機械化下的一個合乎邏輯的步驟。在911之后,電子和機器人武器系統進入現代軍隊的過程越來越快。根據一篇文章所述,“已經有90個國家和非政府組織擁有無人機,30個國家擁有武裝無人機或計劃開發它們。”ISIS采用無人機是一個著名例子,證明了人工智能武器的潛力。
最后,人工智能武器將對美國軍方正在實施的第三次抵消戰略至關重要。機器學習、人機協作、以及無人機群都是可能會破壞國家之間的平衡的潛在系統。我們已經看到了一些戰術在戰場上被使用。例如,俄羅斯聲稱,無人機群襲擊了其在敘利亞的一個基地。
在戰場上早期采用類似于AI的策略,投入此類技術的國家數量之多,以及展示其潛力的現有武器系統,所有這些似乎都表明,人工智能武器將是非常有效的戰爭工具。因此,雖然人們應該對工具的倫理和限制進行有力的討論,但不太可能圍繞工具的使用制定出一個強制的禁忌。