精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

針對AI模型的對抗性攻擊日益增多:你現(xiàn)在應(yīng)該怎么做?

責(zé)任編輯:cres

作者:Louis Columbus

2024-09-23 11:10:17

來源:企業(yè)網(wǎng)D1Net

原創(chuàng)

隨著AI和機器學(xué)習(xí)模型在各行業(yè)的廣泛應(yīng)用,企業(yè)面臨的對抗性攻擊威脅正日益增加,這些攻擊形式多樣,包括數(shù)據(jù)投毒、模型竊取和規(guī)避攻擊,尤其對醫(yī)療和金融等敏感領(lǐng)域構(gòu)成嚴(yán)重風(fēng)險。

對機器學(xué)習(xí)模型的對抗性攻擊在強度、頻率和復(fù)雜度上不斷增加,越來越多的企業(yè)承認(rèn)它們遭遇了與AI相關(guān)的安全事件。

AI的廣泛采用正在導(dǎo)致一個快速擴展的威脅面,所有企業(yè)都在努力應(yīng)對。Gartner關(guān)于AI采用的最新調(diào)查顯示,73%的企業(yè)已部署了數(shù)百或數(shù)千個AI模型。

HiddenLayer的早期研究發(fā)現(xiàn),77%的公司識別出了與AI相關(guān)的安全漏洞,而其余公司則不確定其AI模型是否受到攻擊。五分之二的企業(yè)經(jīng)歷了AI隱私泄露或安全事件,其中四分之一是惡意攻擊。

對抗性攻擊日益增長的威脅

隨著AI在各行業(yè)的影響力不斷增強,惡意攻擊者繼續(xù)精煉他們的技術(shù),利用機器學(xué)習(xí)模型日益增多的漏洞,因為威脅面的種類和數(shù)量都在增加。

對機器學(xué)習(xí)模型的對抗性攻擊試圖通過故意使用輸入、受損數(shù)據(jù)、越獄提示以及在圖像中隱藏惡意命令來利用模型中的漏洞,并將這些圖像加載回模型進行分析。攻擊者調(diào)整對抗性攻擊,使模型產(chǎn)生錯誤的預(yù)測和分類,從而生成錯誤的輸出。

記者Ben Dickson解釋了對抗性攻擊如何運作,它們的多種形式以及該領(lǐng)域的研究歷史。

Gartner還發(fā)現(xiàn),41%的企業(yè)報告經(jīng)歷了某種形式的AI安全事件,包括針對機器學(xué)習(xí)模型的對抗性攻擊。在這些報告的事件中,60%是內(nèi)部人員導(dǎo)致的數(shù)據(jù)泄露,而27%是針對企業(yè)AI基礎(chǔ)設(shè)施的惡意攻擊。30%的AI網(wǎng)絡(luò)攻擊將通過訓(xùn)練數(shù)據(jù)投毒、AI模型竊取或?qū)箻颖緛砉鬉I驅(qū)動的系統(tǒng)。

對機器學(xué)習(xí)攻擊在網(wǎng)絡(luò)安全中的增長

通過對抗性機器學(xué)習(xí)攻擊破壞整個網(wǎng)絡(luò)是一些國家寄希望于用來干擾其對手基礎(chǔ)設(shè)施的隱蔽攻擊策略,這將對供應(yīng)鏈產(chǎn)生連鎖反應(yīng)。2024年美國情報界年度威脅評估提供了一個令人警醒的視角,說明了保護網(wǎng)絡(luò)免受對抗性機器學(xué)習(xí)模型攻擊的重要性,以及為什么企業(yè)需要考慮更好地保護其私有網(wǎng)絡(luò),防止對抗性機器學(xué)習(xí)攻擊。

一項最新研究指出,網(wǎng)絡(luò)環(huán)境的日益復(fù)雜要求更先進的機器學(xué)習(xí)技術(shù),這也為攻擊者提供了新的漏洞。研究人員發(fā)現(xiàn),對機器學(xué)習(xí)在網(wǎng)絡(luò)安全中的對抗性攻擊威脅正在達到流行水平。

迅速增加的連接設(shè)備數(shù)量和數(shù)據(jù)的激增使企業(yè)陷入了與惡意攻擊者的軍備競賽中,許多攻擊者由尋求控制全球網(wǎng)絡(luò)的國家資助,以獲得政治和經(jīng)濟利益。對于企業(yè)來說,問題不再是是否會遭遇對抗性攻擊,而是何時會遭遇。與對抗性攻擊的斗爭仍在繼續(xù),但企業(yè)可以通過正確的策略和工具獲得優(yōu)勢。

Cisco、Cradlepoint(Ericsson的子公司)、DarkTrace、Fortinet、Palo Alto Networks以及其他領(lǐng)先的網(wǎng)絡(luò)安全供應(yīng)商在利用AI和機器學(xué)習(xí)檢測網(wǎng)絡(luò)威脅和保護網(wǎng)絡(luò)基礎(chǔ)設(shè)施方面擁有深厚的專業(yè)知識。每家公司都采取了獨特的方法來應(yīng)對這一挑戰(zhàn)。媒體對Cisco和Cradlepoint最新進展的分析表明,各供應(yīng)商在應(yīng)對網(wǎng)絡(luò)安全和模型安全威脅方面的速度之快。Cisco最近收購Robust Intelligence突顯了保護機器學(xué)習(xí)模型對這家網(wǎng)絡(luò)巨頭的重要性。

理解對抗性攻擊

對抗性攻擊利用了數(shù)據(jù)完整性和機器學(xué)習(xí)模型穩(wěn)健性中的弱點。根據(jù)美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)的《人工智能風(fēng)險管理框架》,這些攻擊引入了漏洞,使系統(tǒng)容易受到對抗性利用。

對抗性攻擊主要有以下幾種類型:

數(shù)據(jù)投毒(Data Poisoning):攻擊者將惡意數(shù)據(jù)引入模型的訓(xùn)練集,從而降低模型性能或控制其預(yù)測。根據(jù)Gartner 2023年的報告,近30%的啟用AI的企業(yè)(尤其是金融和醫(yī)療行業(yè))都經(jīng)歷過這種攻擊。后門攻擊通過在訓(xùn)練數(shù)據(jù)中嵌入特定觸發(fā)器,使模型在遇到這些觸發(fā)器時在現(xiàn)實輸入中表現(xiàn)異常。2023年MIT的一項研究指出,隨著AI采用率的提高,此類攻擊的風(fēng)險也在增加,使得像對抗訓(xùn)練這樣的防御策略越來越重要。

規(guī)避攻擊(Evasion Attacks):這些攻擊通過修改輸入數(shù)據(jù)使模型產(chǎn)生錯誤預(yù)測。輕微的圖像失真可能會讓模型錯誤分類物體。廣泛使用的規(guī)避方法之一是快速梯度符號法(FGSM),它利用對抗性噪聲欺騙模型。在自動駕駛汽車行業(yè),規(guī)避攻擊引發(fā)了安全問題,修改后的停車標(biāo)志被誤認(rèn)為是讓行標(biāo)志。2019年的一項研究發(fā)現(xiàn),一個小小的貼紙就能讓自動駕駛汽車將停車標(biāo)志誤判為限速標(biāo)志。騰訊的Keen安全實驗室曾利用路面貼紙欺騙Tesla Model S的自動駕駛系統(tǒng),這些貼紙將車輛引入錯誤車道,展示了精心設(shè)計的輸入微小變化如何帶來危險。對關(guān)鍵系統(tǒng)(如自動駕駛汽車)的對抗性攻擊是真實存在的威脅。

模型反轉(zhuǎn)(Model Inversion):此類攻擊允許攻擊者從模型輸出中推斷敏感數(shù)據(jù),尤其當(dāng)模型是基于機密數(shù)據(jù)(如健康或財務(wù)記錄)進行訓(xùn)練時,風(fēng)險尤為嚴(yán)重。黑客通過查詢模型并利用響應(yīng)數(shù)據(jù)反向推斷訓(xùn)練數(shù)據(jù)。2023年,Gartner警告稱,“模型反轉(zhuǎn)的濫用可能導(dǎo)致嚴(yán)重的隱私侵犯,特別是在醫(yī)療和金融領(lǐng)域,攻擊者可以從AI系統(tǒng)中提取患者或客戶的信息。”

模型竊取(Model Stealing):攻擊者通過多次API查詢復(fù)制模型功能。這些查詢幫助攻擊者創(chuàng)建一個行為類似于原始模型的代理模型。AI Security指出:“AI模型通常通過API查詢成為攻擊目標(biāo),攻擊者借此反向工程其功能,這對專有系統(tǒng),特別是在金融、醫(yī)療和自動駕駛行業(yè),帶來了重大風(fēng)險。”隨著AI使用的增加,這類攻擊也在增長,導(dǎo)致對AI模型中的知識產(chǎn)權(quán)和商業(yè)機密的擔(dān)憂加劇。

識別AI系統(tǒng)中的薄弱環(huán)節(jié)

保護機器學(xué)習(xí)模型免受對抗性攻擊需要深入了解AI系統(tǒng)的漏洞。需要關(guān)注的關(guān)鍵領(lǐng)域包括:

數(shù)據(jù)投毒和偏見攻擊:攻擊者通過注入帶有偏見或惡意的數(shù)據(jù),攻擊AI系統(tǒng),破壞模型的完整性。醫(yī)療、金融、制造和自動駕駛行業(yè)最近都經(jīng)歷了這些攻擊。2024年NIST的報告警告稱,薄弱的數(shù)據(jù)治理放大了這些風(fēng)險。Gartner指出,對抗性訓(xùn)練和強有力的數(shù)據(jù)控制可以使AI的韌性提升高達30%。建立安全的數(shù)據(jù)管道并進行持續(xù)驗證對于保護關(guān)鍵模型至關(guān)重要。

模型完整性與對抗性訓(xùn)練:機器學(xué)習(xí)模型在沒有對抗性訓(xùn)練的情況下容易受到操控。對抗性訓(xùn)練通過使用對抗性示例顯著增強了模型的防御能力。研究人員指出,對抗性訓(xùn)練提高了模型的穩(wěn)健性,但需要更長的訓(xùn)練時間,并且可能在準(zhǔn)確性與韌性之間進行權(quán)衡。盡管存在缺陷,對抗性訓(xùn)練仍是抵御對抗性攻擊的重要防線。研究還發(fā)現(xiàn),在混合云環(huán)境中,糟糕的機器身份管理增加了機器學(xué)習(xí)模型遭受對抗性攻擊的風(fēng)險。

API漏洞:模型竊取和其他對抗性攻擊對公共API極為有效,它們是獲取AI模型輸出的關(guān)鍵。許多企業(yè)因缺乏強大的API安全性而容易受到攻擊,正如在BlackHat 2022大會上所提到的那樣。包括Checkmarx和Traceable AI在內(nèi)的供應(yīng)商正在自動化API發(fā)現(xiàn)并阻止惡意機器人以減少這些風(fēng)險。必須加強API安全性以維護AI模型的完整性并保護敏感數(shù)據(jù)。

保護機器學(xué)習(xí)模型的最佳實踐

實施以下最佳實踐可以顯著減少對抗性攻擊帶來的風(fēng)險:

健全的數(shù)據(jù)管理與模型管理:NIST建議進行嚴(yán)格的數(shù)據(jù)清理和過濾,以防止數(shù)據(jù)投毒攻擊機器學(xué)習(xí)模型。避免惡意數(shù)據(jù)集成需要定期審核第三方數(shù)據(jù)源的治理。還必須通過跟蹤模型版本、監(jiān)控生產(chǎn)性能和實施自動化的安全更新來保護機器學(xué)習(xí)模型。BlackHat 2022的研究人員強調(diào)了持續(xù)監(jiān)控和更新的必要性,以通過保護機器學(xué)習(xí)模型來確保軟件供應(yīng)鏈的安全。通過健全的數(shù)據(jù)和模型管理,企業(yè)可以提高AI系統(tǒng)的安全性和可靠性。

對抗性訓(xùn)練:通過使用快速梯度符號法(FGSM)生成的對抗性示例可以增強機器學(xué)習(xí)模型的防御能力。FGSM通過對輸入數(shù)據(jù)進行微小調(diào)整來增加模型錯誤,幫助模型識別并抵御攻擊。研究人員指出,這種方法可以將模型的韌性提高30%。研究人員寫道:“對抗性訓(xùn)練是提高模型在面對復(fù)雜威脅時穩(wěn)健性最有效的方法之一。”

同態(tài)加密與安全訪問:在機器學(xué)習(xí)中保護數(shù)據(jù),尤其是在醫(yī)療和金融等敏感領(lǐng)域時,同態(tài)加密提供了強大的保護,因為它允許在加密數(shù)據(jù)上進行計算,而無需暴露數(shù)據(jù)。EY表示,“同態(tài)加密對于需要高隱私保護的行業(yè)來說是一個變革者,因為它允許在不泄露機密的情況下進行安全的數(shù)據(jù)處理。”結(jié)合遠程瀏覽器隔離進一步減少了攻擊面,確保通過安全訪問協(xié)議保護管理和非管理設(shè)備。

API安全性:必須保護面向公眾的API以防止模型竊取并保護敏感數(shù)據(jù)。BlackHat 2022指出,網(wǎng)絡(luò)犯罪分子越來越多地利用API漏洞攻擊企業(yè)技術(shù)堆棧和軟件供應(yīng)鏈。基于AI的洞察(如網(wǎng)絡(luò)流量異常分析)有助于實時檢測漏洞并加強防御。API安全性可以減少企業(yè)的攻擊面并保護AI模型免受對抗者的攻擊。

定期模型審計:定期審計對于檢測漏洞和解決機器學(xué)習(xí)模型中的數(shù)據(jù)漂移至關(guān)重要。定期測試對抗性示例可確保模型在面對不斷演變的威脅時保持穩(wěn)健。研究人員指出,“審計有助于提高動態(tài)環(huán)境中的安全性和韌性。”Gartner關(guān)于AI安全的最新報告強調(diào),持續(xù)的治理審核和數(shù)據(jù)管道監(jiān)控對于保持模型完整性和防止對抗性操控至關(guān)重要。這些實踐有助于確保長期的安全性和適應(yīng)性。

保護機器學(xué)習(xí)模型的技術(shù)解決方案

多種技術(shù)和方法在防御針對機器學(xué)習(xí)模型的對抗性攻擊方面已經(jīng)被證明有效:

差分隱私:這一技術(shù)通過在模型輸出中引入噪聲來保護敏感數(shù)據(jù),同時不會顯著降低準(zhǔn)確性。這一策略對于重視隱私的行業(yè)(如醫(yī)療)尤為重要。差分隱私是Microsoft和IBM等公司在其AI系統(tǒng)中用來保護敏感數(shù)據(jù)的一種技術(shù)。

AI驅(qū)動的安全訪問服務(wù)邊緣(SASE):隨著企業(yè)逐步整合網(wǎng)絡(luò)和安全,SASE解決方案正得到廣泛采用。主要競爭者包括Cisco、Ericsson、Fortinet、Palo Alto Networks、VMware和Zscaler等公司。這些公司提供多種功能來應(yīng)對分布式和混合環(huán)境中對安全訪問的日益增長的需求。Gartner預(yù)測,到2025年,80%的企業(yè)將采用SASE,這一市場預(yù)計將快速擴展。

Ericsson通過集成5G優(yōu)化的SD-WAN和零信任安全來凸顯其優(yōu)勢,并通過收購Ericom加強了這一組合。這使Ericsson能夠提供一款基于云的SASE解決方案,專為混合型員工和物聯(lián)網(wǎng)部署而設(shè)計。其Ericsson NetCloud SASE平臺在提供AI驅(qū)動的分析和網(wǎng)絡(luò)邊緣的實時威脅檢測方面表現(xiàn)出色。該平臺集成了零信任網(wǎng)絡(luò)訪問(ZTNA)、基于身份的訪問控制和加密流量檢測。Ericsson的蜂窩智能和遙測數(shù)據(jù)用于訓(xùn)練AI模型,以改善故障排除的幫助功能。其AIOps能夠自動檢測延遲,將其定位為蜂窩接口問題,確定根本原因是蜂窩信號的問題,并建議解決方案。

同態(tài)加密的聯(lián)邦學(xué)習(xí):聯(lián)邦學(xué)習(xí)允許在不共享原始數(shù)據(jù)的情況下進行分布式機器學(xué)習(xí)訓(xùn)練,從而保護隱私。使用同態(tài)加密計算加密數(shù)據(jù)確保整個過程中安全性。Google、IBM、Microsoft和Intel正在開發(fā)這些技術(shù),尤其是在醫(yī)療和金融領(lǐng)域。Google和IBM使用這些方法在AI模型協(xié)作訓(xùn)練過程中保護數(shù)據(jù),而Intel則使用硬件加速的加密技術(shù)來保障聯(lián)邦學(xué)習(xí)環(huán)境。這些創(chuàng)新確保了數(shù)據(jù)隱私在安全、分布式的AI中得以保護。

防御攻擊

鑒于對抗性攻擊(包括數(shù)據(jù)投毒、模型反轉(zhuǎn)和規(guī)避攻擊)的潛在嚴(yán)重性,醫(yī)療和金融行業(yè)尤其脆弱,因為這些行業(yè)往往是攻擊者的首選目標(biāo)。通過使用對抗性訓(xùn)練、健全的數(shù)據(jù)管理和安全的API實踐,企業(yè)可以顯著降低對抗性攻擊帶來的風(fēng)險。基于AI驅(qū)動的SASE,結(jié)合蜂窩優(yōu)先優(yōu)化和AI驅(qū)動的智能技術(shù),已被證明在防御網(wǎng)絡(luò)攻擊方面非常有效。

企業(yè)網(wǎng)D1net(hfnxjk.com):

國內(nèi)主流的to B IT門戶,旗下運營國內(nèi)最大的甲方CIO專家?guī)旌椭橇敵黾吧缃黄脚_-信眾智(www.cioall.com)。旗下運營19個IT行業(yè)公眾號(微信搜索D1net即可關(guān)注)。

版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需在文章開頭注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號

  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 华坪县| 永嘉县| 贡觉县| 堆龙德庆县| 南平市| 辽阳市| 蓬安县| 运城市| 宁武县| 万州区| 正蓝旗| 遵化市| 安新县| 同德县| 西峡县| 桐乡市| 赫章县| 南阳市| 政和县| 日喀则市| 河南省| 林芝县| 大连市| 虹口区| 长泰县| 吉安县| 莫力| 米泉市| 辽中县| 循化| 宜城市| 水城县| 高唐县| 福安市| 成安县| 吉首市| 中宁县| 双鸭山市| 怀仁县| 米易县| 凤冈县|