根據網絡安全公司Group-IB的研究人員發布的一份威脅情報報告,2023年有超過20萬個OpenAI的ChatGPT憑據在暗網上出售,ChatGPT賬戶顯然受到了利用目標設備上的RedLine和LummaC2等竊取信息的惡意軟件的攻擊。
根據這份報告,與2023年1月至5月期間相比,2023年6月至10月期間泄露的ChatGPT憑據增加了36%,LummaC2被發現是最常用的數據泄露工具,此外,亞太地區的目標最為常見,其次是歐洲和中東。
此外,在此期間還開發了類似ChatGPT的工具,包括WormGPT、WolfGPT、DarkBARD和FraudGPT,這些工具通過社交攻擊和網絡釣魚策略被用來啟用信息竊取惡意軟件活動。
這一發展突顯了AI與敏感組織數據相關的威脅。出于工作目的,員工經常在聊天機器人中輸入機密信息或專有代碼,這可能會讓壞人獲得敏感情報。
有報道稱,超過4%的員工將敏感數據輸入到AI聊天機器人中,包括商業信息、個人身份信息和源代碼,這突出了企業實施最佳實踐的必要性,包括對復制-粘貼操作的控制和AI交互的組級安全控制。
企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。