但專家警告說,人工智能也可能被流氓國家、罪犯和恐怖分子惡意使用。例如,無人駕駛飛機被改裝成導彈,操縱政治輿論,自動化黑客攻擊,這些只是不法之徒惡意使用人工智能技術的三個應用。
一個針對人工智能的調查報告表明,那些創建人工智能系統的個人和組織需要采取更多的措施來緩解可能出現的漏洞,而政府部門也需要開始考慮推行新的法律。這份長達100頁的報告指出數字、物理和政治是最有可能被惡意使用人工智能的三個領域。
富士通公司EMEIA(歐洲、中東、印度及非洲)地區首席執行官Duncan Tait表示:“政府、企業和行業機構必須為人工智能的潛在影響做好準備。人們必須了解如何使用人工智能,并評估所需的監管和控制措施。人們必須對其對社會的影響采取有計劃的方法,并集中精力重新提高員工和工作的安全水平。然而,人們利用人工智能的難以置信的價值來支持繁榮和幸福也是至關重要的。政府部門、教育機構、企業和社會的及時和協調的反應將是必不可少的,實際上,全球84%的商界領袖都贊成采取協調一致的應對措施,為變革做好準備。有了正確的領導和準備,人們都能從人工智能中獲益。”
劍橋大學的生存風險研究中心的研究人員Shahar Avin表示,該報告主要針對人工智能在未來五年的應用發展,而不是遙遠的將來。
該報告呼吁:
•政策制定者和技術研究人員共同努力,理解并對惡意使用人工智能做好應對準備。
•人們需要認識到,盡管人工智能有許多積極的應用,但它是一種具有雙重用途的技術,人工智能研究人員和工程師應該關注,并積極預測其濫用的可能性。
•可以從長期處理雙重用途風險的學科(如計算機安全)中學習和學習最佳實踐。
•積極擴大利益相關者參與范圍,預防和減輕惡意使用人工智能風險的范圍。
避免人工智能的惡意使用
該報告特別關注的是,在沒有人為的例子或人類指導的情況下,人工智能將被訓練成超人的智力水平。
它概述了人工智能系統可能被惡意使用的一些假設例子。
•AlphaGo等技術可被黑客用于查找數據模式和代碼中的新漏洞。
•不法之徒可以購買無人機,并使用面部識別軟件對其進行培訓,以針對個人和組織進行攻擊。
•機器人可以自動或“偽造”以假亂真的視頻用于操縱政治輿論。
•黑客可以使用語音合成來模擬他人的聲音。
牛津大學未來人類研究所的研究員Miles Brundage表示:“人工智能將改變公民、組織和國家的風險狀況,無論是犯罪分子在人類的經濟或隱私方面采用機器進行黑客攻擊,或采用釣魚軟件進行監視、剖析和抑制,這對個人和組織的安全具有巨大的全方位影響。”
他表示,在通常情況下,人工智能系統不僅達到了人類的水平,而且大大超過。
他說,“考慮到超人類的黑客攻擊,監視、說服和物理目標識別的影響,以及人工智能的能力,這是令人不安的,但是也是必要的。雖然人工智能有些能力不如人類,但是擴展性更強。”
劍橋大學的生存風險研究中心SeánÓhÉigeartaigh博士補充說:“人工智能是一種改變游戲規則的游戲,這個調查報告對未來五到十年內世界可能會是什么樣子提出了設想。”
他說,“我們生活在一個充斥著濫用人工智能的日常危險的世界中,人們需要承認問題的存在,因為風險是真實存在的。我們現在需要做出一些選擇,我們在調查報告中呼吁全球政府、機構和個人需要采取相應的行動。幾十年來,人工智能和機器學習方面的宣傳和炒作超過了事實。這份報告著眼于人工智能安全,并提出了一些可能有效的方法,例如如何設計軟件和硬件以使人工智能不被居心不良的人利用,以及采用什么類型的法律和國際法規限制人工智能的不良應用。”
版權聲明:本文為企業網D1Net編譯,轉載需注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。