周鴻祎介紹,360與浙大合作發現了一種“海豚音攻擊”,該攻擊人耳無法聽見,但通過超聲波信號可以劫持智能設備的語音控制系統,再利用麥克風的硬件漏洞,就可以悄悄開啟語音助手,把智能音箱變成竊聽器,竊取用戶隱私。
此外,“海豚音攻擊”還可用於攻擊多種擁有語音助手的智能設備,包括智能手機、智能手表、智能汽車等。伴隨著越來越多的智能設備介入我們的生活,人工智能面臨的安全問題也令產學研各界持審慎態度。在此次 “人工智能與安全專委會”成立大會上,現階段人工智能本身的安全問題就成為關注焦點。
周鴻祎指出,人工智能是個熱詞,也是未來的大勢所趨。但當下的人工智能技術並不完善,存在四大冰點:
首先,前端傳感器可以被干擾。人工智能廣泛依賴音視頻採集、紅外感應、激光雷達等各類傳感器。但這些傳感器自身並不安全,能夠被干擾,造成人工智能識別和決策失誤。“海豚音攻擊”就是干擾語音傳感器的方式之一。
其次,人工智能的數據樣本可以被污染。目前人工智能採用深度學習模型,黑客可以構建畸形輸入或者污染訓練數據集,進行“數據投毒”,導致人工智能出錯。比如,通過給智能汽車輸入“污染”過的訓練樣本,就可以把“禁止通行”的交通標志牌識別為“可以通行”,從而造成交通事故。
第三,內部算法可以被欺騙。人工智能本質上是一種用大量數據訓練出來的概率判斷系統,其內部復雜的計算邏輯和決策過程還不透明,可以被欺騙或繞過。周鴻祎表示,人工智能也許可以有99.99%的概率保証識別是正確的,但是對於安全來講,它隻要出現一次識別錯誤,就會造成嚴重后果。
最后,實現平臺有漏洞。周鴻祎介紹,當下的人工智能系統都依賴開源的深度學習框架,存在大量漏洞,當前360研究人員已經發現了40多個深度學習框架的軟件漏洞。
人工智能無疑是下一輪技術革命的焦點,在技術高速發展的同時,如何保持這個技術更安全是重中之重。周鴻祎建議,解決人工智能時代的安全問題,能夠防范的唯一方法就是利用基於大數據的人工智能。360去年基於安全大數據構建了360安全大腦,可以實現網絡安全的自動化、智能化。
“360安全大腦目前還是初級階段,我們希望通過開放我們的數據、技術、能力和平臺,與產學研各界通力合作,真正把360安全大腦的產業生態做起來,並在未來的國家安全、城市安全、社區安全,甚至老百姓的家庭安全中發揮重要作用。”周鴻祎最后說道。