想要對抗惡意的人工智能(AI),人類最終可能還得依靠人工智能本身。谷歌的想法是:讓AI互為攻防,在“互毆”中進化、學習防御之道。
美國科技雜志《麻省理工科技評論》(MIT Technology Review)近日報道,將于今年12月份舉辦的頂級學術會議——神經信息處理系統大會(NIPS 2017)上,會有一個關于AI攻擊和防御對抗比賽(Competition on Adversarial Attacks and Defenses)的成果發布。麻省理工科技評論稱,這場比賽預示著進攻性AI和防御性AI算法之間的戰斗,可能是網絡安全和網絡戰爭的未來。
該比賽由谷歌的研究員牽頭組織,并在谷歌旗下的數據公司Kaggle的平臺上運行。
機器學習,特別是深度學習,正在迅速成為許多行業不可或缺的工具。該技術涉及將數據饋送到特殊類型的計算機程序中,指定特定結果,并使機器開發出自己的算法,來擬合結果。而深度學習更是通過調整數學模擬神經元巨大的互連網絡參數,來做到這一點。
然而,目前大多數現有的機器學習的魯棒性(robustness,系統的抗干擾能力)很差,容易受對抗樣本的影響。樣本經過輕微修改后,可能就會讓機器學習發生錯誤。這些修改可能人類幾乎無法看出,這可能會對機器學習分類器的安全性產生不利影響。因此,這一比賽主要也是為了加快研究機器學習分類器的對抗樣本,提升其魯棒性。
據Kaggle官網消息,該比賽分有3輪:第一輪為無目的對抗攻擊(Non-targeted Adversarial Attack),即競賽者所提交的系統需要對任何類別的圖片進行處理,使得某個通用機器學習分類器無法識別;第二輪為有針對性的對抗攻擊(Targeted Adversarial Attack),即競賽者所提交的系統需要對給定的圖片進行處理,使得某個通用機器學習分類器無法識別;第三輪為防御對抗攻擊(Defense Against Adversarial Attack),即競賽者需要構建一個強大的機器學習分類器,使通用機器擁有足夠的魯棒性能正確鑒別對抗性的圖像。
在每個階段的比賽中,參賽者都被要求制作并提交解決相應任務的程序,舉辦方會通過攻擊程序來評估該程序的等級。
據Kaggle官網,該比賽將于8月1日、9月1日、9月15日分別啟動三輪開發進程,并在 10月1日截止。最終結果,將會于12月舉辦的NIPS 2017大會上揭曉。
谷歌大腦的研究員Ian Goodfellow說,“對抗性的機器學習比常規的機器學習更難研究,因為很難說是你的攻擊強力,還是你的防御實在太虛弱。”Goodfellow是人工智能領域的頂級專家,因提出生成對抗網絡(GANs)而聞名。
隨著機器學習的普及,當機器學習能被用來盈利或者做壞事時,對黑客來說,躲開網絡防火墻等安全措施,安裝惡意軟件將變得更加便捷,這也引起了人們的恐慌。“計算機安全肯定是朝著機器學習的方向走,”Goodfellow稱,“壞人會用機器學習來使他們對網絡的攻擊自動化,而我們要用機器學習來進行防御。”
目前,Kaggle已經成為算法開發的寶地,并成為培養有才華的數據科學家的溫床。該公司于3月份被Google收購,現在已成為Google Cloud平臺的一部分。Goodfellow和另一位谷歌大腦研究員Alexey Kurakin在收購之前,就曾提出過比賽的想法。
Kaggle的首席技術官(CTO)兼共同創始人Benjamin Hamner表示,希望這個比賽能夠引起大家的關注。“當機器學習被更廣泛的應用,了解對抗學習的問題和風險變得越來越重要”, Hamner表示。
Hamner認為,公開比賽遠比直接宣傳新型網絡攻擊會帶來相關風險來的有效。他補充說,“我們相信這個研究最好是公開地建立和分享,而不是閉門造車。”