AI的強大和快速發展正在迅速改變網絡安全格局,給網絡安全捍衛者帶來機遇和挑戰。隨著ChatGPT等流行的AI工具以及最近更強大的GenAI系統成為數字生態系統的中流砥柱,網絡安全專業人員將越來越多地應對新的威脅,同時也轉向AI技術來識別和抵御這些威脅。
安全公司Axonius發布了一項關于IT和安全團隊狀況的調查,其中揭示了AI如何上升到網絡安全議程的首位,以實現AI時代的希望和應對危險。Axonius調查了美國、英國和澳大利亞擁有500名或更多員工的950家公司的IT和安全決策者。
調查發現,76%的受訪者表示,與12個月前相比,他們的企業在AI或ML方面的支出更多,超過85%的受訪者表示,他們有興趣在來年將AI應用于企業的IT和安全運營。Axonius還發現,近39%的IT和安全決策者表示,他們的企業在過去12個月中減少了IT或安全員工人數,他們的企業采用了基于AI的工具來簡化任務,以跟上減少的員工人數而帶來的工作量相對增加的趨勢。
這些調查結果與另一項調查結果相吻合:近72%的IT和安全決策者報告擔心GenAI對其企業的網絡安全的潛在不利影響。
正如調查顯示的那樣,網絡防御者將越來越多地使用AI技術來防御AI帶來的網絡威脅。Axonius高級安全總監Daniel Trauner告訴記者:“如果這項技術讓攻擊者可以更快或更便宜地做一些事情,那么防御者也必須考慮如何才能更快、成本更低地做一些事情,并有效地利用我們擁有的資源做更多的事情。”
網絡攻擊者越來越善于利用由AI支持的惡意軟件進行網絡攻擊
在AI技術采用的早期,可能會使天平傾向于惡意行為者的一個因素是,防御者采用最新AI防御工具的速度相對較慢,也更單一,這至少讓攻擊者獲得了暫時的優勢。Phylum的CSO Peter Morgan告訴記者:“AI的進步如此之快,我們不可能希望所有使用它的人都能完全理解正在發生的事情。”“時間上的差異現在是個大問題。”
“與建立攻擊者可以使用的東西相比,建立網絡防御系統需要很長時間,比如說,1%的時間是有效的。如果他們追求的是1000、10000或100000個目標,那么很容易計算出1%的成功會給你帶來多少,但作為一名防守者,1%的成功對你幫助不大。真的,你想要的東西產品化,并在可靠的意義上擺在客戶或用戶面前,這需要很長的時間。”
一些專家認為,網絡攻擊者擁有不對稱的優勢是網絡安全專業人士已經習慣并已經處理了很長時間的問題。“每個從事網絡安全防護工作的人,我們不可能只看到好的一面而不看到不好的一面,對吧?”CrowdSec的合作主管Andrea Hervier告訴記者,“我們總是試圖思考一項潛在的新技術可能會帶來什么后果,但當我們此刻審視AI在網絡安全方面的好處時,我們也可以說,許多好處同時也是缺陷。”
Hervier說,“AI的出現代表了一枚硬幣的兩面。我可以肯定地說,一邊GenAI可以自動完成很多日常任務,它可以大規模地完成它們,并且可以非??斓赝瓿伤鼈?,這可以被視為一件好事。如果它掌握在網絡罪犯手中,也可以被視為一件壞事。”
Viking Cloud的全球安全架構師Fayyaz Makhani告訴記者,“即使AI目前是一個不對稱的威脅,防御者也沒有什么可害怕的。我們不需要害怕AI,我們可以用幾種不同的方式來看待它,如果我們把它視為工具,并將其視為對我們所做的任何事情的支持,無論它是網絡安全的白色一面還是非白色一面,我認為無論哪種方式,我們都有能力以許多不同的方式利用AI。”
AI防御者將面臨的網絡威脅
盡管很難預見隨著AI技術的發展,防御者將面臨哪些類型的威脅,但攻擊者大規模生成合成內容的能力是一個最令人擔憂的問題。“綜合生成新的或看似真實的內容的能力將非常具有危害性。如果你舉一個發生在民族國家層面的事情為例,如果一個民族國家攻擊者試圖為一系列賬戶在網上建立一個存在,讓它們看起來像是真實的,那就有一個完整的過程。”
“你創建一個新的賬戶,在里面放一堆內容,然后讓它互動。通常情況下,威脅參與者多年來一直讓人們這樣做,在網上建立這些身份,它看起來像是真人,花了大量的人類時間和精力來綜合創造這些東西,并在這些時間段里讓它們成熟,ChatGPT的內容生成可以為你完成所有這些工作?,F在,它只是編寫一些代碼來自動化處理,它正在改變攻擊者在音量水平上所能做的事情的格局。”
當談到攻擊者目前使用的最常見的惡意AI用例——改進釣魚電子郵件的語言時,網絡防御者正在迅速應對這一挑戰。Makhani說:“釣魚的例子是一個很好的例子,說明了一種對雙方都有效的技術。”因此,邪惡的用戶使用AI、ChatGPT或其他生成模型來創建更好的釣魚電子郵件,但另一方面,我們正在開發的工具采用了許多類似的技術來檢測這些網絡釣魚電子郵件或其他類型的垃圾郵件中的模式。“。
“AI將使攻擊者更容易進行更好的釣魚攻擊,但它也不可避免地會使防御變得更強大。”Morgan說。
需要謹慎實施AI技術
AI技術快速、復雜,而且在運營中往往不透明,如果不仔細實施,會不會給網絡捍衛者帶來負擔?包括三星、蘋果、Spotify、Verizon和亞馬遜在內的越來越多的公司正在限制員工使用ChatGPT,以避免一種這樣的責任:泄露敏感的客戶或企業數據。
自美國證交會10月下旬指控SolarWinds及其CISO在涉嫌已知的網絡安全風險和漏洞方面存在欺詐和內部控制失誤以來,圍繞組織網絡安全做法的質疑進一步加劇,這一事態發展在信息安全界引發了激烈辯論。Phylum的Morgan說:“將會出現涉及AI的新攻擊,我認為你不能指望或合理地起訴一個沒有防御的人,因為它們可能是全新的。”
Axonius的Trauner認為,該行業已經在主動監控AI風險和責任。只需看看一堆已經出來的框架,你就能看出安全行業對這里的風險和責任給予了非常仔細的關注。對于大型語言模型應用程序,已經有了OWASP前10名。NIST發布了其AI風險管理框架,還有拜登的行政命令。
AI發展如此之快,Trauner說:“關于這項技術,我要說的是,它與我親身經歷過的許多其他技術不同,它的進步速度是獨一無二的,我還沒有見過任何東西發展得如此之快。”
關于企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。