近日,騰訊安全平臺部Blade團隊對外發布消息稱,該團隊在對谷歌人工智能學習系統TensorFlow進行代碼審計時,發現該系統存在重大安全漏洞,利用該系統進行編輯的AI場景,有遭受惡意攻擊的可能。
目前谷歌官方已經確認了該漏洞,并表示TensorFlow官網將在網站創建安全公告頁面,及時披露和修復安全漏洞。
尚未造成影響
TensorFlow是谷歌研發的第二代人工智能學習系統,它可在小到一部智能手機、大到數千臺數據中心服務器的各種設備上運行。除谷歌外,國外如eBay、Airbnb、Twitter、Uber等企業,國內的小米、中興、京東等公司都在使用TensorFlow進行AI模型訓練和開發。
騰訊安全平臺部Blade團隊回復科技日報記者,這次發現的漏洞不但攻擊成本低,普通攻擊者就能實施攻擊,而且迷惑性強,大部分AI研究者可能沒有防備。安全漏洞風險較高,主要問題是在TensorFlow處理訓練好AI模型的時候,沒有考慮到規避異常AI模型,導致其執行了黑客的命令邏輯。
好在目前這個漏洞尚未被“有心人”利用,造成嚴重后果。騰訊安全團隊表示,要從根本上解決這種漏洞需要TensorFlow框架更改處理模型的架構,難點是整個架構設計的更改。目前使用者應該避免使用外部的AI模型,等待官方發布補丁。
安全如何保障
此前有業內人士認為,由于AI框架剛開始被大范圍使用,截至首個安全風險被報告,業內對此類安全問題關注度還不夠。
北京市計算機中心算法工程師張秀玲介紹,目前這些第三方基礎庫是端對端的相對成熟穩定的平臺,可以省去很多基礎編程工作,只需要在這些基礎庫之上設計算法架構即可,尤其對于做應用的人很有吸引力。騰訊安全團隊表示,現在很多軟件都會依賴TensorFlow、Caffe、Torch 等第三方開源基礎庫,所以這里也容易引入漏洞,常見的是安全漏洞。AI可能存在的安全漏洞分為兩類。
“第一類是AI算法自身的漏洞,比如通過一些方法欺騙AI,讓AI誤判。之前業界和我們的團隊都實現過利用特制的交通標識牌欺騙自動駕駛系統。”騰訊安全團隊說。還有一類屬于傳統的軟件漏洞,比如像處理文件的漏洞、引入第三庫帶來的漏洞等。騰訊安全團隊表示,造成什么風險是由這個AI系統的能力決定的。如果是關系國計民生的大系統那將會造成很大危害,會導致AI失控,或者說被黑客控制。
我國7月發布的《新一代人工智能發展規劃》明確指出,人工智能發展的不確定性帶來新挑戰。在大力發展人工智能的同時,必須高度重視可能帶來的安全風險挑戰,加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發展。
騰訊安全團隊認為,安全防護是一個縱深工程,僅僅從算法和代碼層面考慮的話,要從漏洞成因的兩方面入手,算法上不要出問題,代碼上也要保證安全。