為何要如此強調人工智能“正當使用”?因為,人工智能的突破猶如“雙刃劍”,“正當使用”可以為社會發展提供新動能、造福人類,而濫用則可能帶來無窮隱患。
今年4月,聯合國《特定常規武器公約》政府專家小組在瑞士日內瓦召開會議,討論致命自主武器系統研發,即“殺手機器人”可能帶來的影響。人工智能界的專家學者及防務分析人士一致認為,軍事機器人革命帶來的倫理、法律及政策等問題,尤其是自主武器能否自行判斷殺敵,是令人擔憂和亟需討論的現實問題。
實際上,警惕“殺手機器人”的呼聲早已形成。在2017年人工智能國際會議上,有硅谷“鋼鐵俠”之稱的馬斯克、蘋果聯合創始人沃茲尼亞克、研發“阿爾法圍棋”的深度思維公司創始人哈薩比斯等科技界名人曾簽署公開信,呼吁聯合國應像禁止生化武器一樣,禁止在戰爭中使用致命的自主武器和“殺手機器人”。
大多數專家學者認為,人工智能迅速發展給社會各領域帶來深遠影響,對軍事作戰系統研發也帶來全新理念,但就使用致命武器而言,人應當是負責啟動的關鍵要素。什么樣的人工控制才是最適宜的,相關討論仍在持續進行。
通常一種新技術的適用范圍越廣,被濫用的風險越高。人工智能在一個個領域“攻城略地”,推動產業變革,但也令人對其高速發展所帶來的未知性心存憂慮。
被美國《麻省理工學院技術評論》評為“全球十大突破性技術”之一的“對抗性神經網絡”,旨在突破人工智能想象力、創造力的瓶頸。但在展現巨大潛力的同時,這項技術發展的負面影響也不容忽視。
在相關試驗中,美國芯片企業英偉達的研究人員用明星照片訓練出一套系統,進而生成了數百張根本不存在、但看起來很真實的人臉照片。還有研究團隊讓系統生成看起來十分逼真的梵高油畫。
專家提醒,不法分子可能利用此類系統制造出圖片甚至視頻來混淆視聽,給監管、安全帶來新挑戰。這一領域的技術先驅、美國科學家伊恩·古德費洛就表示,他當前的研究重心已經轉向如何避免這類技術的濫用問題,希望它“不至誤入歧途”。
任何一種新技術的出現,人們在充分享受其帶來福祉的同時,也必須及時防范相關風險。如何進行適當引導和管理,同樣考驗人類智慧。
科學家一直希望以最簡單的辦法,保證以機器人為代表的人工智能不給人類帶來任何威脅。人們最熟悉的莫過于科幻作家阿西莫夫設計的“機器人三定律”。美國機器智能研究院奠基人尤德科夫斯基也提出了“友好人工智能”的概念,認為“友善”從設計伊始就應當被注入機器的智能系統中。
不少專家建議,除了設計和建造要遵循技術規范,還可由政府有關部門牽頭,成立由技術專家、社會科學研究人員、政府管理人員為核心的人工智能管理委員會,對涉及人工智能的研究和開發項目進行審核評估。
與生物技術、核技術相比,目前對人工智能領域的監管依然薄弱。如何對可能形成的負面影響未雨綢繆、為技術發展劃出法律和倫理道德的邊界,已經迫在眉睫。如何讓人工智能更好地服務人類社會,也是世界范圍內的一項共識。
去年7月,中國國務院發布的《新一代人工智能發展規劃》就提出,“建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力”。
中國科學技術大學機器人實驗室主任陳小平教授認為,要規范人工智能發展,首先要把基礎技術研究好,“未雨綢繆,需要我們走到前列,才能有發言權,有具體的思考和對這一領域的深刻知識,才能具備治理的能力,進而提出我們自己的意見和規則”。