鑒于“公民,政策制定者和領導人迫切需要區分人工智能的可接受和不可接受的用途”,簽署承諾的公司也呼吁各國政府制定一套反對自主武器的具體法律。“我們簽名人同意,不應該將人類生命的決定委托給機器。這個職位有一個道德因素,我們不應該讓機器做出生命決定,其他人 - 或者沒有人 - 會有罪的是,“ 生命未來研究所(FLI)組織的承諾 ” 。簽署者認為,這種武器,包括在沒有人為參與的情況下選擇和參與目標,在地緣政治層面可能極其不穩定。
他們還一致認為,取消人為控制因素以及與監視和數據系統的密切聯系,可能導致自主武器成為“暴力和壓迫手段”。“此外,致命的自主武器具有與核武器,化學武器和生物武器截然不同的特點,單一集團的單方面行動很容易引發國際社會缺乏管理的技術工具和全球治理體系的軍備競賽,”承諾繼續。“煽動和防止這種軍備競賽應成為國家和全球安全的重中之重。”
隨著越來越多的抗議活動 - 不僅來自活動家和活動家 - 而且來自世界上一些最大的科技公司(如谷歌)的員工,這一承諾也隨之而來。
上個月,這家科技巨頭表示,在數千名員工公開批評該公司參與之后,該公司不會續約一個備受爭議的五角大樓領導的軍事項目。名曰項目Maven的,合同涉及谷歌公司的貸款程序TensorFlow包,以提高軍事無人機的性能。
但是,在今年早些時候有3,100名谷歌員工簽署了一封要求該公司退出“戰爭業務”的信件后,谷歌云首席執行官黛安格林在上個月的一次內部會議上證實,該公司將在2019年到期后再續約。
“我們認為谷歌不應該參與戰爭。因此我們要求取消Maven項目,谷歌起草,宣傳并執行一項明確的政策,聲明谷歌及其承包商都不會制造戰爭技術,”原致首席執行官桑達皮采的信中說。
然而,目前尚不清楚新簽署的承諾是否會違反谷歌參與Project Maven,因為它只能阻止決定采用機器生命 - 而不是反對切入參與任何武器系統中的人工智能技術
該協議中值得注意的缺席者包括全球最大的人工智能投資者之一Apple,而只有微軟,IBM和亞馬遜等其他主要參與者的選定員工 - 而不是公司本身 - 已經簽署了該承諾。
“我很高興看到人工智能領導人從談話轉向行動,實施政治家迄今未能實施的政策,”FLI總裁馬克斯泰格馬克在今年國際聯合會議期間宣布斯德哥爾摩承諾人工智能(IJCAI)。
“人工智能有巨大的潛力來幫助世界 - 如果我們恥辱并防止其濫用。自主決定殺人的人工智能武器就像生物武器一樣惡心和不穩定,應該以同樣的方式處理。”