該報告顯示,企業使用AI/ML工具的數量同比增長了3000%以上,凸顯出各行業迅速采用AI技術,以解鎖生產力、效率和創新的新水平。這些發現基于Zscaler云在2024年2月至12月期間分析的5365億筆AI和ML交易。
企業向AI工具發送了大量數據,總計達3624TB,這進一步強調了這些技術與企業運營的融合程度,然而,這種采用熱潮也帶來了更高的安全隱憂。企業阻止了59.9%的所有AI/ML交易,這表明企業已經意識到AI/ML工具可能帶來的風險,包括數據泄露、未經授權的訪問和合規性違規。
威脅行為者也日益利用AI來增強攻擊的復雜性、速度和影響力,迫使企業重新思考其安全策略。
Zscaler首席安全官迪潘·德賽表示:“隨著AI改變各行業,它也帶來了新的、未曾預料到的安全挑戰。數據是AI創新的金礦,但必須安全地處理。”
ChatGPT占據AI/ML交易的主導地位
ChatGPT已成為使用最廣泛的AI/ML應用程序,占全球已識別AI/ML交易的45.2%,然而,由于其引發的敏感數據泄露和未經授權使用的擔憂,它也成為被阻止最多的工具。其他被阻止最多的應用程序還包括Grammarly、Microsoft Copilot、QuillBot和Wordtune,這顯示出AI在內容創作和生產力提升方面的廣泛應用模式。
企業在AI創新與安全之間走鋼絲
隨著AI采用的持續增長,企業將不得不在控制風險的同時,利用AI/ML的力量保持競爭力,在AI創新與安全之間走鋼絲。
AI放大了網絡風險,自主式AI工具使威脅行為者能夠擴大攻擊規模。在2025年至今,我們目睹了DeepSeek挑戰美國巨頭,如OpenAI、Anthropic和Meta,憑借其強大的性能、開放獲取和低成本沖擊了AI開發,然而,這些進展也帶來了重大的安全風險。
歷史上,前沿AI模型的開發僅限于一小部分精英“建設者”——如OpenAI和Meta等投入數十億美元訓練大型基礎模型的公司,然后,“增強者”在這些基礎模型之上構建應用程序和智能體,之后才到達更廣泛的“采用者”或終端用戶。
DeepSeek通過大幅降低訓練和部署基礎大型語言模型(LLM)的成本,打破了這一結構,使得更多參與者能夠進入AI領域。與此同時,隨著xAI的Grok 3模型的發布,該公司宣布Grok 2將成為開源——這意味著,與Mistral的Small 3模型等一起,用戶在開源AI方面有了更多選擇。
各行業加大力度保障AI/ML交易安全
美國和印度產生的AI/ML交易量最高,體現了全球向AI驅動創新的轉變,然而,這些變化并非在真空中發生,這些地區以及其他地區的企業正面臨著日益嚴峻的挑戰,如嚴格的合規要求、高昂的實施成本和熟練人才的短缺。
金融和保險行業占所有企業AI/ML活動的28.4%,反映了其廣泛的采用程度,也表明了該行業所支持的關鍵功能,如欺詐檢測、風險建模和客戶服務自動化。制造業位居第二,占交易量的21.6%,這可能是由供應鏈優化和機器人自動化方面的創新所驅動的。
包括服務業(18.5%)、技術業(10.1%)和醫療保健業(9.6%)在內的其他行業也在增加對AI的依賴,而每個行業都面臨著獨特的安全和監管挑戰,這些挑戰帶來了新的風險,并可能影響整體的采用率。
各行業也在加大力度保障AI/ML交易的安全,但阻止的AI/ML活動量各不相同。金融和保險行業阻止了39.5%的AI交易。這一趨勢與該行業嚴格的合規環境以及保護財務和個人數據的必要性相一致。
制造業阻止了19.2%的AI交易,這表明該行業在廣泛采用AI的同時,也采取了一種密切監控安全風險的戰略方法,而服務業則采取了一種更為平衡的方法,阻止了15%的AI交易。另一方面,醫療保健行業僅阻止了10.8%的AI交易。盡管醫療保健組織處理著大量的健康數據和個人身份信息(PII),但在確保AI工具的安全方面仍然滯后,其安全團隊正在追趕快速的創新步伐。
Deepfake將成為各行業的一大欺詐手段
隨著企業將AI融入其工作流程,它們還必須應對影子AI的風險——即未經授權的AI工具使用,這可能導致數據泄露和安全盲點。如果沒有適當的控制措施,敏感的商業信息可能會被泄露、被第三方AI模型保留,甚至被用于訓練外部系統。
GenAI將在2025年及以后將社會工程學攻擊提升到新的水平,特別是在語音和視頻網絡釣魚方面。隨著基于GenAI的工具的興起,初始訪問代理組織將越來越多地使用AI生成的語音和視頻與傳統渠道相結合。隨著網絡犯罪分子采用本地化語言、口音和方言來提高其可信度和成功率,受害者將越來越難以識別欺詐性通信。
隨著企業和終端用戶迅速采用AI,威脅行為者將越來越多地利用人們對AI的信任和興趣,通過設計用于促進惡意軟件、竊取憑據和利用敏感數據的虛假服務和工具來牟利。
Deepfake技術將掀起新一輪欺詐浪潮,從操縱公眾人物視頻的簡單手段擴展到更復雜的騙局。欺詐者已經在使用AI生成的內容制作假身份證、偽造事故圖像以騙取保險金,甚至制作假冒X光片來利用醫療保健系統。
隨著Deepfake工具變得更加先進和易于獲取,且其輸出更具說服力,欺詐將更難被檢測,從而破壞身份驗證和通信信任。
采用AI應用需采取戰略性和分階段的方法。最安全的起點是阻止所有AI應用程序,以減輕潛在的數據泄露風險,然后,逐步整合經過審查的AI工具,并實施嚴格的訪問控制和安全措施,以維持對企業數據的全面監督。
企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,旗下運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。旗下運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。