這些研究人員分布在30個國家,他們表示,他們不會訪問KAIST,接待大學的訪客,或者與其研究項目合作,直到它承諾在沒有“有意義的人為控制”的情況下不開發人工智能武器。
KAIST于2月份與韓國制造集束彈藥制造商之一的韓華系統公司合作開設了該中心,并在數小時內作出回應,稱其“無意參與開發致命的自主武器系統和殺手機器人”。
大學校長Sung-Chul Shin表示,該大學“非常了解”人工智能的道德問題,并補充說:“我再次重申KAIST不會進行任何與人類尊嚴相反的研究活動,包括缺乏有意義的人為控制的自主武器。”
該大學表示,新的國防和人工智能融合研究中心將專注于將AI用于指揮和控制系統,大型無人駕駛海底車輛導航,智能飛機訓練以及物體跟蹤和識別。
組織抵制活動的悉尼新南威爾士大學教授托比沃爾什說,該大學的快速反應是成功的,但他需要與所有簽署這封信的人交談,然后再取消聯合抵制。
“KAIST做出了兩項重大讓步:不發展自主武器并確保有意義的人為控制,”他說,并補充說,該大學的回應將增加聯合國下周就整個問題進行的討論。
沃爾什說,目前尚不清楚人們如何能夠建立有意義的人類控制無人潛艇 - 其中一個發射項目 - 當它在海底并且無法通信時。
在宣布抵制的公開信中,研究人員警告說:“如果發達,自主武器將......允許戰爭更快,并且規模比以往任何時候都大。他們將有可能成為恐怖武器。“
他們引用了對先前武器技術的有效禁令,并敦促KAIST禁止任何有關致命自主武器的工作,并避免使用會損害人類生命的人工智能。
AI是計算機科學領域,旨在創建能夠感知環境并做出決策的機器。
該信還由深度學習和機器人技術的頂級專家簽署,在下周一由聯合國123個成員國在日內瓦召開會議之前發布了由致命自主武器構成的挑戰,批評者稱之為“殺手機器人”。
沃爾什告訴路透社,機器人和人工智能在軍隊中有很多潛在的好用途,包括將人類從危險任務中移除,例如清除雷區。
“但我們不應該將生命或死亡的決定移交給機器。這跨越了明確的道德路線,“他說。“我們不應該讓機器人決定誰住,誰死。