12月15日消息,近日騰訊安全平臺部預研團隊發現谷歌人工智能學習系統TensorFlow存在嚴重安全風險,可被黑客利用帶來安全威脅,團隊已向谷歌報告這一風險并獲得致謝,其官方負責人稱,考慮到TensorFlow在AI的廣泛使用,TensorFlow官網將會像大多數重要軟件一樣在網站創建安全公告頁面,及時披露和修復安全漏洞。
目前,Google的TensorFlow作為開源框架被互聯網廣泛使用,據官方介紹,谷歌、ebay、airbnb、twitter、uber、小米、中興等公司均有使用。在TensorFlow中,AI研究者可以復用他人建好的模型來進行AI訓練,或直接提供AI服務,大大提高開發效率。
據了解,這些公開的模型通常以文件形式提供,也普遍被認為是無害的。但騰訊安全平臺部預研團隊發現,攻擊者可以生成Tensorflow的惡意模型文件,對AI研究者進行攻擊,對受害者自身的AI應用進行竊取或篡改、破壞。
該風險危害面非常大,一方面攻擊成本低,普通攻擊者即可實施攻擊;另一方面迷惑性強,大部分AI研究者可能毫無防備;同時因為利用了TensorFlow自身的機制,其在PC端和移動端的最新版本均會受到影響。AI模型被竊取,損失的是開發者的心血;而一旦被篡改,造成AI失控,后果更難以想象。
此前,AI已有不少實際應用案例,例如深圳試運行的無人駕駛公交、國際會議的AI同聲傳譯;未來更會滲透到社會的方方面面:交通、醫療、安防、金融……在不遠的未來,AI安全會直接影響人們的生命財產安全,甚至整個世界的秩序。如電影《復仇者聯盟:奧創世紀》那樣,終極人工智能奧創為人們的生活提供了無數便利,但當他站到人類的對立面時,也會帶來無數災難甚至毀滅。
據悉,騰訊安全平臺部安全預研團隊已就此次發現的安全風險向谷歌提交報告,協助風險早日收斂。該團隊不僅聚焦AI、移動及IoT前沿領域的安全問題研究,同時也向google,apple,微軟,adobe等公司報告多個安全漏洞并多次獲得官方致謝。此外,他們對無人機、無線電、物聯網、智能樓宇的安全問題也有研究。