在本屆DEF CON黑客大會上,專家們展示了如何利用一套機器學習系統(OpenAI GYM)創建出能夠規避檢測的惡意軟件。
我們已經多次討論關于人工智能(簡稱AI)對威脅前景的影響。從防御角度來看,這類新型技術方案能夠提前檢測與威脅相關的惡意模式;但從進攻的角度來看,機器學習工具亦可被用于創建定制化惡意軟件,從而突破現有反病毒軟件的防線。
本屆DEF CON黑客大會上,安全廠商Endgame公司數據科學技術主管哈拉姆·安德森演示了如何利用一套機器學習系統創建出能夠有效規避安全解決方案檢測的惡意代碼。
安德森對埃隆·馬斯克的OpenAI框架進行調整以創建惡意軟件。其原理非常簡單,只需要對該系統稍加調整,即可生成看似合法的惡意代碼。
這套只需要幾處修改即可避開反病毒引擎檢測的系統被專家們命名為OpenAI Gym。
OpenAI Gym修改代碼細節安德森解釋稱,“一切機器學習模型皆存在盲點。根據黑客自身的實際知識水平,其完全能夠對這些盲點加以利用。”他和他的團隊創建出一套系統,能夠以對合法代碼進行小幅修復,并將其提交至安全檢查器。通過對安全檢查器的響應分析結果進行查詢,研究人員即可進一步小幅調整,從而提升惡意軟件規避檢測的能力。
批量生產惡意軟件或成現實專家們開發出的這套機器學習系統在15個小時的訓練當中利用某款安全引擎對超過10萬種惡意軟件樣本進行掃描,最終結果令人擔憂:16%的惡意軟件樣本順利通過了安全系統的防御掃描。
安德森和他的團隊已經將OpenAI Gy的代碼發布至GitHub之上,感興趣的朋友可以點擊此處查看。
根據GitHub上的工具包發布描述所言,“這是一套面向OpenAI Gym的惡意軟件修改環境。OpenAI Gym屬于一款用于開發以及比較強化學習算法的工具包。使用者能夠借此編寫出有能力學習如何修改PE文件(例如惡意軟件)的代理,并根據特定修改操作帶來的反饋實現特定目標(例如回避反病毒工具檢測)。”
安德森鼓勵各位安全專家體驗OpenAI Gym并對其進行改進。