自主武器系統崛起
隨著科技的發展,技術的競爭越來越激烈,在引領新興科技競賽和未來戰爭戰場的競爭中,人工智能(AI)正迅速成為大家關注的焦點。正如大家所看到的,自主武器系統(AWS)正在迅速發展,而人工智能武器化的發展成為了一個高風險不可控因素。這不僅給各國帶來了復雜的安全挑戰,也給人類的未來帶來了安全威脅。
如今,人工智能正在引領我們走向一個新的時代同時也把我們領進了一個全新的戰場,這個戰場沒有邊界,可能涉及也可能不涉及人類,將控制整個人類生態系統的網絡空間、地理空間和空間(CGS)。人工智能武器化帶來的風險是肉眼可見的,人工智能無需人類設計者或操作者的進一步干預,可以自主選擇和攻擊人類和非人類目標,給人類帶來巨大威脅。
一旦人工智能武器化,人工智能和武器就會脫離人工參與和干預,只需使用交互的嵌入式傳感器、計算機編程和算法,這個有必要引起我們的注意和重視,也是一個不容忽視的現實。
人工智能武器化
隨著人工智能、機器學習和深度學習的進一步發展,人工智能從概念到商業化,加上其計算能力、內存、大數據和高速通信的快速發展,不僅帶來了市場創新、投資的熱潮,也加劇了對人工智能芯片的追求。我們可以看到人工智能正在為戰爭帶來革命性的變革,各國也很重視開發人工智能以及其人工智能自動化武器系統。
當各國在著力發展科學技術,爭取在這方面取得競爭優勢時,人工智能的進一步武器化是不可避免的。因此有必要為未來的人工智能自主武器系統做好準備。隨著科技的發展,人工智能逐步進軍事行業,正如我們所看見的,自動化戰爭已經開始有了苗頭,我們有必要做好應對措施。
自動武器系統被認為提供降低武器系統的運營成本的一種方式,特別是通過更有效地利用人力資源,會使武器系統能夠實現更高速度、更高準確性、持久性、精度,但同時技術、法律、經濟、社會和安全問題仍然不能忽視。
程序員和編程人員扮演的角色
在應對這些復雜的安全挑戰和未知的技術是,為了保障人類的安全,最根本的仍然是關注程序員和編程人員在其中扮演的角色。原因是程序員可以在開始時定義和確定AWS的性質,直到AI開始編寫自己的程序。
不過設想一下,如果一個程序員有意或無意地編寫了一種自動武器,而且這個武器違反了當前和未來的國際人道主義法(IHL),那么人類將如何控制人工智能武器化?而且問題的核心是,誰該為此負責?
網絡安全挑戰
簡而言之算法的安全性不是很可靠,也不能忽視漏洞、惡意軟件、惡意操縱帶來的危險。雖然自主武器系統存在許多風險和挑戰,但我們要重視的是,我們不能讓人工智能將推動并決定我們的人類生存和安全戰略,我們自己掌控。基于這個問題,Risk Group與Markus Wagner發起了關于自主武器系統的討論,Markus Wagner是澳大利亞伍倫貢大學(University of Wollongong)的一名出版作家和法學副教授。
接下來我們要做什么?
各國都在科學技術方面卯著一股勁爭取在科技領域獲得競爭優勢,而且人工智能的進一步武器化是不可避免的。重要的是要理解和評估,如果不能阻止,那么就該接受這樣一個事實了,僅僅因為技術允許和AWS成功開發,并不意味著我們就應該這樣做。如果人工智能武器化不符合人類的利益那就必須暫停。