因此,讓我們探討為什么開源AI缺乏安全性,以及安全專業人員可以采取哪些措施來改善這一情況。
回到未來:AI即軟件
首先,必須承認AI并不是與軟件不同的東西;它本質上是軟件。因此,它是IT系統操作的一部分,也屬于軟件供應鏈的一部分。AI應該像對待任何其他代碼或工件一樣對待。
同樣值得注意的是,軟件供應鏈安全不僅僅是關于Web應用程序、命令行工具或其他通常被認為是軟件的東西,它保護企業在開發、分發和部署軟件時的每一個組件和過程,可以將其視為應用于系統交付生命周期(SDLC)的網絡安全。軟件開發的每個階段,從編碼和構建到生產、部署和維護,都涉及其中,并且需要確保安全。
AI軟件供應鏈中可能出錯的地方
AI供應鏈中的挑戰與更廣泛的軟件供應鏈中的挑戰相似,但在將大型語言模型(LLM)或機器學習(ML)模型集成到企業的框架中時,增加了復雜性。
例如,考慮一個金融機構希望利用AI模型進行貸款風險評估的場景,這個應用程序需要仔細審查AI模型的軟件供應鏈和訓練數據來源,以確保符合監管標準,例如禁止在貸款審批過程中使用受保護類別。
舉例來說,讓我們看看銀行如何將AI模型整合到其貸款風險評估程序中。法規要求嚴格遵守貸款審批標準,禁止使用種族、性別、國籍等人口統計數據作為決定性因素。因此,銀行必須考慮和評估AI模型的軟件和訓練數據供應鏈,以防止可能導致法律或監管問題的偏見。
這個問題超出了個別企業的范圍。更廣泛的AI技術生態系統面臨著令人擔憂的趨勢。最近的研究表明,開源AI軟件工具的安全狀態與其受歡迎程度呈反比。簡而言之,開源AI工具或模型的采用越廣泛,其可能存在的安全漏洞就越多。
此外,基于潛在非法或不道德數據訓練的開源AI模型的普遍存在,給用戶帶來了重大的法律和監管風險,這種風險突顯了在AI供應鏈中采取加強措施以確保安全使用的必要性。盡管AI的未來充滿希望,但解決這些挑戰對其負責任的采用和持續成功至關重要。
安全專業人員可以采取的措施
確保開源安全需要在多個方面進行關注,包括:
• 安全規范:倡導在開源社區內實現更大的透明度和責任制,要求提供必要的安全元數據,例如軟件物料清單(SBOM)、SLSA(軟件工件供應鏈級別)和SARIF(靜態分析結果交換格式)。
• 開源安全工具:與支持安全項目的公司合作,如Allstar、GUAC和in-toto聲明,以分擔一些責任,同時仍然從開源創新中受益。
• 行業貢獻和開源資金:支持像開源安全基金會(OpenSSF)這樣的組織,該基金會開發規范、工具和倡議以確保關鍵開源項目的安全性。
CISO及其安全團隊需要了解其企業環境中的軟件信息,以確保其安全性,有了這些信息,CISO可以就集成到環境中的軟件組件做出明智的、基于風險的決策。僅依賴志愿者的安全努力而不進行貢獻或投資是不可持續且無效的。
企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。