對于那些對網絡安全感興趣的科技專業人士來說,人工智能(AI)和機器學習代表著下一個挑戰和機遇并存的前沿。從理論上講,人工智能平臺將強化網絡防御——但它們也可以為黑客系統提供新的途徑。
如果你是一個敏感多疑的系統管理員或網絡安全專家,你很容易想象出一個噩夢般的場景:一個超精密的人工智能,從科幻電影中跳出來,通過你的網絡防御系統,進而摧毀或腐蝕系統。但負責網絡防御的人類可能很快就會有一個強大的盟友:人工智能的設計,目的是防止黑客攻擊。
致力于深度學習和人工智能的發展的谷歌的一個研究項目,目前正在為數據科學競賽平臺Kaggle舉辦一場競賽。目標是:讓人工智能研究人員設計攻擊和防御機器學習系統,能識別并對圖像做出反應。
具體來說,谷歌大腦想要技術專業人員設計兩種攻擊:一種“非針對性的對抗性攻擊”,它會輕微修改源圖像,使機器學習平臺錯誤地將其分類。另外一種“有針對性的敵對攻擊”,將修改后的圖像以特定的方式進行分類。它還希望專業人士提出一種防御(“抵御敵對攻擊的防御”)來對付這些攻擊。
修改源圖像的關鍵是什么?如果人工智能平臺把修改后的圖像視為“真實”,它可能會得出錯誤的結論。例如,如果一個黑客訓練了一個自動駕駛平臺,將紅色信號燈描述為綠色,那么它就可能導致混亂。(去年,PopularScience發表了一篇廣為流傳的文章,詳細描述了經過修改的圖像如何能損壞一個復雜的深度學習網絡。)
在OpenAI發布的一份研究報告中,將這些“敵對圖像”相當于視覺錯覺或幻覺。無論如何類比,很明顯,這樣的攻擊是一個大問題,因為有很多科技公司有意利用人工智能來完成關鍵型應用和功能。開發能夠阻止這些(以及其他)攻擊的人工智能系統至關重要。
如果這類事情讓你感興趣的話,看看Kaggle的競爭對手吧。如果你正以一種職業的身份進入網絡安全領域,那么你就要準備好討論人工智能在未來幾年如何改變安全格局,以及公司正在采取哪些措施來應對新的威脅。