12月16日消息,隨著人工智能技術(shù)被廣泛采用,不久之后黑客也會(huì)將其目光投向人工智能領(lǐng)域。黑客可以使用虛假數(shù)據(jù)欺騙系統(tǒng),從而造成各種麻煩。
在不久前于巴塞羅那召開的AI會(huì)議上,OpenAI的研究科學(xué)家伊恩·古德費(fèi)洛(Ian Goodfellow)提醒與會(huì)者警惕針對(duì)機(jī)器學(xué)習(xí)進(jìn)行的攻擊。“目前各種你能想到的攻擊手段都可以實(shí)現(xiàn),而且很難防御。”
在過去幾年中,研究人員探索了機(jī)器學(xué)習(xí)的各種可能。機(jī)器學(xué)習(xí)天生適合被用來在大數(shù)據(jù)中發(fā)現(xiàn)數(shù)據(jù)模式和趨勢。然而在強(qiáng)大的同時(shí)它們也很脆弱,某種意義上是因?yàn)樗鼈內(nèi)狈?shí)際的智力來判斷信息的真假。比如,你可以使用一幅廣告牌來欺騙自動(dòng)駕駛汽車上的視覺系統(tǒng),而它就會(huì)傻傻把廣告畫面誤以為真。有些聲音人耳聽不見,卻會(huì)觸發(fā)語音助理不必要的操作,莫名其妙地訪問什么網(wǎng)站甚至下載惡意軟件。
古德費(fèi)洛等人正在對(duì)此制定對(duì)策。他們希望能訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng)有能力識(shí)別錯(cuò)誤的信息輸入,然而想做到萬無一失并非易事。
機(jī)器學(xué)習(xí)的打造和防衛(wèi)并非只是單純的學(xué)術(shù)討論,同時(shí)也是十分現(xiàn)實(shí)的問題。賓夕法尼亞州立大學(xué)的教授帕特里克·麥克丹尼爾(Patrick McDaniel)說:“機(jī)器學(xué)習(xí)系統(tǒng)的安全非常現(xiàn)實(shí)。機(jī)器學(xué)習(xí)驅(qū)動(dòng)著許多功能,一些別有用心的攻擊者會(huì)采用這些新興攻擊手段。”麥克丹尼爾表示黑客玩弄機(jī)器學(xué)習(xí)系統(tǒng)的事長久以來就存在。比如垃圾郵件發(fā)送者能夠利用假電郵地址騙過算法,成功散播垃圾郵件。麥克丹尼爾相信用不了多久,更復(fù)雜的攻擊手法將會(huì)出現(xiàn)。
麥克丹尼爾說:“針對(duì)在線分類系統(tǒng)的攻擊很快就會(huì)出現(xiàn)。”攻擊對(duì)象可能包括現(xiàn)代垃圾郵件過濾器、版權(quán)檢測系統(tǒng)以及基于機(jī)器學(xué)習(xí)構(gòu)建的計(jì)算機(jī)安全系統(tǒng)。
一篇新研究表明,這個(gè)問題比之前已知的更廣泛。它表明某些欺騙手段能被重復(fù)用在多個(gè)不同的機(jī)器學(xué)習(xí)系統(tǒng)上,攻擊者甚至可以在沒有先驗(yàn)知識(shí)的情況下對(duì)“黑盒”系統(tǒng)展開攻擊。
流行的機(jī)器學(xué)習(xí)工具中隱藏的bug也可以被用攻擊者利用。各種新的機(jī)器學(xué)習(xí)工具以驚人的速度被開發(fā)出來,這些工具通常被發(fā)布到網(wǎng)上供免費(fèi)下載,隨后被用作諸如圖像識(shí)別或自然語言分析開發(fā)之用。
在前文提到的AI會(huì)議上,奧克塔維安·蘇奇(Octavian Suciu)強(qiáng)調(diào)了存在于流行工具中的這些漏洞。蘇奇分析了這些程序的源代碼,發(fā)現(xiàn)它存在被操控的隱患。一些程序在內(nèi)存中存儲(chǔ)信息的方式存在問題,在大量數(shù)據(jù)輸入的情況下會(huì)導(dǎo)致程序文件被數(shù)據(jù)覆蓋,從而產(chǎn)生問題。
蘇奇舉例說明該漏洞或可被用來操縱股票預(yù)測工具,產(chǎn)生錯(cuò)誤的預(yù)測,通過誤導(dǎo)市場達(dá)到攻擊者的目的。“在本該上漲的情況下,你可以人為操縱預(yù)測工具讓它顯示‘下跌’的預(yù)測。”他說。