近日,IBM 宣布向 Linux AI 基金會(LF AI)貢獻一系列 AI 工具包,用于幫助構建“公平、安全、值得信賴”的人工智能應用。
此次 IBM 一共貢獻了三項工具,分別是 AI Fairness 360 Toolkit、Adversarial Robustness 360 Toolbox 和 AI Explainability 360 Toolkit:
· AI Fairness 360 工具包可幫助檢測和減輕整個 AI 應用程序中機器學習模型的偏差;
· Adversarial Robustness 360 Toolbox (ART) 是一個 Python 庫,旨在保證機器學習的安全性,使神經網絡免受攻擊;
· AI Explainability 360 工具包則提供了一套全面的算法,涵蓋了解釋的不同維度以及代理的可解釋性指標,用以支持機器學習模型的可解釋性。
該項目于本月初由 LFAI 技術咨詢委員會投票通過,已正式移交基金會托管和孵化。
IBM 在去年加入 LFAI,隨后協助建立了可信賴的 AI 委員會(Trusted AI Committee),該委員會致力于定義和實施 AI 部署中的可信賴原則。
“在構建可信賴和公平的 AI 時,技術只是等式的一部分”,IBM 表示,“社會科學、政策和立法以及各種觀點的貢獻與技術本身同樣重要。”
除了貢獻開源工具包外,IBM 也通過資助來鼓勵負責任的技術部署行為。其開源社區的最近一筆捐款就撥給了哥倫比亞一個非營利組織,該組織正在幫助當地女性學習編碼,并提供教育和職業發展支持。