IBM認知解決方案高級副總裁David Kenny表示,“IBM曾經確立了開發新型人工智能技術的信任和透明度原則。現在是將這些原則付諸實現的時候了。任何可能有缺陷的決策都會給使用人工智能的企業帶來極大的潛在風險,而我們為企業提供了加強透明度和控制的方法。”
這些技術的發展也同樣印證IBM研究院的最新研究結果,該研究顯示,雖然有82%的企業正在考慮運用人工智能,但有60%的企業擔心責任問題,63%的企業缺乏能夠可靠地管理這種技術的內部人才。
提高人工智能決策的可見度
在IBM云端運算平臺上的全新信任和透明度功能,可與各種機器學習框架和人工智能建構的環境模型配合使用,例如Watson,Tensorflow,SparkML,AWS SageMaker和AzureML。也就是說,企業可以將這些新的控制工具用于大部分常見的人工智能框架。還可以對軟件服務進行編碼,以監控任何業務工作流程所需的獨特決策因素,使其能根據特定的組織用途進行客制化。
這種完全自動化的軟件服務能夠解釋決策并在運行時(也就是進行決策時)檢測人工智能模型中的偏差,每當潛在的不公結果出現時就會立即發現。重要的是,它還能自動建議應添加到模型的數據,幫助緩解它檢測到的任何偏差。
它使用通俗易懂的術語提供解釋,說明是哪些因素的權重使決策朝某一方向傾斜,決策建議的可信度有多大,以及可信度背后的因素。此外,模型的準確性、性能和公正性以及人工智能系統譜系的紀錄可以根據客戶服務、法規或合規用途,例如GDPR合規,輕松地追蹤和回顧。
所有這些功能都是透過可視化操作面板來存取,讓企業客戶擁有前所未有的理解、解釋和管理人工智能主導決策的能力,并降低對專業人工智能技能的依賴。
使開源社群能夠建構更公正的人工智能
此外,IBM研究院還將提供開源社群 AI Fairness 360工具包,這是一套包括新型算法、程序代碼和教程的資源庫,它將為學術單位、研究者和數據科學家提供在建構和部署機器學習模型時整合偏差檢測功能的工具和知識。開源社群中的其他資源僅僅著眼于檢查訓練數據中的偏差,而IBM研究院建立的IBM AI Fairness 360工具包將有助于檢查和緩解人工智能模型中的偏差。IBM研究院借助這一工具包,廣邀全球開源社群合作推動人工智能的相關研究,降低解決人工智能偏差的困難度。
研究揭示了人工智能部署主流化的優先項目和障礙
IBM最近發布了IBM研究院2018人工智能報告,這份對5,000名企業高管的調研結果顯示,對于人工智能推動商業價值和收入成長的潛力,企業領導者的看法正在發生重大變化。
報告中的重要發現:
?82%的企業和93%的高績效企業正在考慮推廣人工智能應用,重點是增加收入。
?60%的企業擔心責任問題,63%的企業缺乏能夠可靠地管理人工智能技術的人才。
?首席執行官認為在IT、信息安全、創新、客戶服務和風險管理方面采用人工智能可以獲得最大的價值。
?人工智能的應用范圍正在擴大,在金融服務等數字轉型程度較高的行業很可能會加速推廣