AI領域一些引人注目的進步,尤其是在消化了訓練數據集后能識別聲音或物體的機器學習算法,刺激了語音助手和自動駕駛汽車的發展。但這些AI應用很容易被欺騙。
在此次會議上,對抗性攻擊是一個熱門主題。研究人員報告了欺騙AI以及保衛它們的各種新方法。令人擔憂的是,會議的兩個最佳論文獎之一給了這樣的結論:其發現受到保護的AI并非像其開發者可能認為的那樣安全。“我們這些機器學習領域的專家并不習慣于從安全性的角度看待問題。”共同主導上述3D打印研究的麻省理工學院(MIT)計算機科學家Anish Athalye表示。
致力于研究對抗性攻擊的計算機科學家表示,他們正在提供一種服務,就像指出軟件安全缺陷的黑客一樣。“我們需要重新思考所有的機器學習途徑,以便使其更強勁。”MIT計算機科學家Aleksander Madry認為。
研究人員表示,這些攻擊在科學上也有用處,為了解被稱為神經網絡的AI應用提供了罕見的窗口。神經網絡的內在邏輯無法得到清晰明了的解釋。加州大學伯克利分校計算機科學家Dawn Song表示,對抗性攻擊是強大的鏡頭,“透過它,我們能理解獲得的機器學習知識”。
去年,Song和同事將一些貼紙放到停車標志上,從而欺騙一種常見的圖像識別AI認為其是每小時不超過45英里的限速標志。這一結果令自動駕駛汽車公司不寒而栗。
研究人員正在設計更復雜的攻擊。在另一場會議上,Song還將報告一種讓圖像識別AI不只誤判物體,還對其產生幻覺的“花招”。在一項測試中,凱蒂貓隱約出現在機器的街景視圖中,而路上行駛的汽車卻消失了。