塔塔咨詢服務公司數據和分析業務負責人Kamlesh Mhashilkar說:“人工智能治理并不只在IT層面或項目層面實施,也要得到政府、企業董事會和首席安全官的重視。”
他指出,例如在醫療保健領域,人工智能模型必須通過嚴格的審核和檢查。其他行業也有適用的法規。Mhashilkar說,“企業董事會關注人工智能治理與經濟行為有關,這是因為當引入人工智能技術時,企業將會面臨一些風險。”
至于企業管理層,有關人工智能的議程是有目的性的。例如,首席財務官需要考慮人工智能帶來的股東價值和盈利能力。首席信息官和首席數據官也是主要的利益相關者,企業市場和合規負責人也是如此,更不用說客戶和供應商。
并非所有企業需要在構建人工智能治理戰略的各個方面采取行動。尤其一些規模較小的公司。盡管如此,各種規模的企業都將使用人工智能和相關技術,即使它們只是嵌入到他們使用的第三方工具和服務中。
但是如果在未經適當監督的情況下使用人工智能技術可能出現一些嚴重錯誤,從而損害業務運營、侵犯隱私權,違反行業法規或對企業帶來不良信譽的影響。
具有前瞻性思維的企業將人工智能項目從試點擴展到生產,并重點關注數據質量、算法性能、合規性和道德規范。以下是他們需要解決的人工智能治理問題:
人工智能的道德問題
如今,很少有哪個領域比面部識別領域面臨更多的道德方面的問題。其技術濫用的可能性很大,提供面部識別技術的一些企業正受到公眾的抵制,有時還受到自己員工的抵制。
Patriot One科技公司的子公司Xtract AI公司就面臨著這種情況,該公司使用圖像識別技術來識別攜帶武器的人員。
Xtract AI公司運營副總裁Justin Granek表示,面部識別技術還可以用于其他場合,例如識別不遵守面具或社交疏導準則的人員。
他說,“對于我們來說,道德是一個主要的話題。例如我們的員工說:‘我們正在做些什么?’,這迫使我們需要制定人工智能治理的政策。”
他指出,“客戶有自己的一些要求,需要確定一個平衡點。加拿大國防部是我們的客戶之一,我們還有一些醫療保健領域的客戶。他們正在從不同的角度看待它。”
他表示,該公司面臨最大的問題是要為哪些客戶工作,以及面部識別技術應該應用在哪些方面?這是一個與企業使命有關的重要決定。但是還必須解決一些技術問題,這些問題的起因都是數據。
正確獲取數據
算法偏差的最大來源是數據集。例如,對于面部識別技術來說,其數據集并不代表一般人群。Granek說,“我們發現,采用數據集更加關注白人男性,這種情況已經得到糾正,但還有很多工作要做。”
Granek表示,專家可以幫助解決數據偏差問題,商業數據提供商正在努力填補他們提供數據的空白。也有創建合成數據集的方法,但其解決辦法往往是從外部獲得更好的數據。
對于Xtract AI公司的槍支檢測算法來說,這意味著需要設置一個實驗室,而在實驗室中攜帶槍支的人員需要混雜在人群中。
他說:“這種方法就好像是好萊塢電影中在人群中尋找持槍歹徒的畫面,我們的人工智能系統需要在人群中進行識別,但這并不代表事情的真相。”
取而代之的是,Xtract AI公司努力收集大量的個人資料作為訓練數據。Granek說,“對于可能攜帶武器的人員沒有任何規定。我們的測試人員有一些學生,還有一些年紀較大的人,總之我們需要采集不同的群體的數據。”
對于某些人工智能應用程序來說,具有代表性的準確數據集可能是生與死之間的區別,并具有重大的道德和倫理意義。但是,即使不良數據集的影響不會導致發生公共災難,仍然有可能對企業造成運營影響或財務損失,或導致監管或合規性問題。
這是總部位于墨西哥的Cemex公司關注的問題,Cemex公司是世界上最大的建筑材料分銷商之一,已有100多年的經營歷史。該公司正在通過在供應鏈管理和運營中使用人工智能來重塑自己。大約三年前,Cemex公司開始研究人工智能和相關技術,以擴大其市場份額,改善客戶服務,提高利潤。
該公司首席人工智能官Nir Kaldero說:“我們這兩年實際上在全球范圍內看到了人工智能的價值,而不僅僅是在小規模試點項目中。”
他說,隨著人工智能技術融入該公司的經營理念之中,Cemex公司意識到有必要圍繞人工智能建立治理結構。
Kaldero說:“這一切都始于數據。沒有良好的信息架構,就不會有良好的、可靠的人工智能。沒有良好的信息,就無法擁有良好可靠的模型。”
Cemex公司的數據治理涵蓋了安全性、監控、隱私、合規性和道德規范,并且需要知道數據位于何處,在何處使用以及如何使用,是否符合法規要求以及是否沒有偏見。
Kaldero表示,Cemex公司依靠Snowflake云數據平臺管理數據。該公司有一位高管專門負責數據,另一位高管則負責治理團隊的治理。
正確設置模型
除了數據治理之外,Cemex公司開始圍繞人工智能模型和結果創建人工智能治理策略。Kaldero說,“這些新的東西,不僅對于Cemex公司來說,而且對于整個世界也是如此。”
這項任務由Kaldero帶領的人工智能和數據科學小組以及首席信息官帶領的小組共同承擔。Cemex公司當前使用人工智能技術來預測其產品需求,因此可以通過與供應商協商更好的交易來節省成本。它還將人工智能用于卡車的路線安排和調度以及銷售和定價。如果這些計算中的任何一項出現錯誤,該公司將蒙受大量損失。
因此,為了防止模型漂移和算法偏差,Cemex公司使用了基于Seattle的Algorithmia的技術。
KenSci公司是另一家關注人工智能模型后果的公司。總部位于西雅圖的KenSci公司使用人工智能技術分析醫療保健數據,在這個領域中,準確的人工智能模型實際上面對的是生死攸關的問題。
該公司首席數據科學家Muhammad Aurangzeb Ahmad說:“我們總是從與不同利益相關者一起審查人工智能模型的目標開始。為確保這些模型透明并且負責任,可解釋性是一個核心組成部分。我們甚至發布了一個開源Python軟件包fairMLHealth,任何人都可以使用它來衡量機器學習模型的公平性。”
Ahmad還建議審核人工智能模型在不同群體之間的表現,以確保公平對待少數群體和其他弱勢群體。
他說:“人工智能模型的透明度和可解釋性使它們更容易被最終用戶使用和信任。而且更易于審核,并在需要時進行更正。”
人工智能與道德
制定人工智能治理策略時要考慮的另一個關鍵領域是人工智能使用的道德規范。Ahmad說,“有關人工智能的法規并沒有跟上技術的發展,機器學習系統的創造者有責任將機器學習系統的價值與道德目標結合起來。當需要權衡時,我們應該謹慎行事。”
數字服務咨詢機構Nerdery公司首席技術官Joe Tobolski認為,越來越多的企業意識到人工智能的潛在道德風險。他說,“但是,企業是否完全了解自己正在運行的系統以及所擁有的培訓數據?可能并不是這樣。”
很少有企業擁有明確的人工智能道德規范以適用于其人工智能項目、數據源和技術使用。他說:“這就是我們希望去做的事情,為解決這些問題建立一個強大的、經過整理的框架。”
Cemex公司的主要業務是研究限制和阻礙人工智能使用的問題,以最大程度地減少潛在的道德問題。例如,該公司正在優先考慮改善服務和幫助客戶的項目,而不是僅僅減少企業員工的項目。
他說:“員工是企業的中心,而不是技術。我們可以使所有的客戶呼叫中心自動化,但這不符合我們的利益。Cemex公司對于能為更多員工提供工作機會而感到自豪。在我們公司的使命中,這是一件很美好的事情。
選擇人工智能項目會對員工產生積極影響。對于人工智能而言,這是一項巨大的創舉。Cemex公司對于人工智能技術所犯錯誤的研究,已經顯著地減少了事故數量,而使其減少犯錯的方法是采用圖像識別技術。”
人工智能治理策略
對于總部位于馬薩諸塞州的人壽保險商MassMutual公司來說,人工智能治理是基于一套不斷發展的數據道德原則,這些原則指導著企業的行動和決策。
該公司數據、戰略和架構負責人Sears Merritt說:“我們專門為使用人工智能制定了一套原則,以使業務發展與企業價值和保單持有人的利益保持一致。我們還建立了一個團隊,通過創建政策框架來監督人工智能的使用。”
大約一年前,MassMutual公司開始研究人工智能的道德規范和治理,當時該公司意識到需要證明并確保使用人工智能為其保單持有人帶來利益。
Merritt現在帶領著一個由6名專家組成的團隊,其中包括人工智能倫理和治理顧問,他們追蹤人工智能算法是否遵守治理原則,以及它們如何隨著時間推移而發生的變化,從而為該公司已經遵循的方法創建正式的框架。
Merritt說:“我們相信我們的工作會對所有利益相關者產生巨大影響。”他建議,人工智能治理需要從與企業價值觀和客戶利益保持一致的核心原則入手,并與法律、合規性、道德和商業合作伙伴一起實施。
他說,MassMutual公司下一步的計劃將其框架推廣為行業最佳實踐。
設置護欄的重要性
Booz Allen Hamilton公司高級副總裁John Larson表示,人們關于人工智能治理的許多最佳實踐可能會有些熟悉。
他說:“我從業已有25年的時間,如今開發人工智能軟件和算法采用的是以前就存在的原理。但是以前不存在的是收集數據的速度、處理能力和學習算法。”
企業訓練數據的人工智能系統通常使用比以往更大的數據集,并且由于當今業務的數字化,數據正以前所未有的速度從網站、網絡傳感器、物聯網設備和其他來源進入人工智能系統。
處理這些數據的能力也比以往任何時候都要顯著提高,這在很大程度上要歸功于可以無限擴展的云計算資源。
最后,某些人工智能系統的反饋性質意味著它們實際上是在實踐中學習,而這些學習可以把它們帶到意想不到的方向,其速度之快讓人們無法想像。
Larson說:“現在人工智能治理模式與25年前的治理模式的原則是相同的,但它們不能只是適應所面臨的挑戰。其解決方案是在人工智能系統中建立自動化的保障措施。”
例如,開發人員可以設置護欄。如果人工智能模型的預測精度超出預定目標,或者模型在設計參數范圍內停止運行,則可能需要某種形式的干預。同樣,如果進入人工智能系統的數據不再反映所需的特性,則需要發出警報,以重新評估數據源,或選擇更適合傳入數據的不同模型。
對于人工智能系統還有其他監控方式。例如,測試被禁止的相關性(如種族、年齡或宗教信仰)的最終建議,有助于在問題導致監管罰款或公共關系災難之前發現問題。
Larson說:“谷歌和微軟等一些公司已經開發了一些工具,它們可以評估模型是否偏向某些事物。Booz Allen公司也正在開發一些工具套件,并試圖為我們的數據科學家提供工具。”
Loeb&Loeb律師事務所隱私和安全業務合伙人兼聯席主席Jessica Lee表示,任何良好的人工智能治理計劃都需要明確所有權和問責制。
她說:“誰將主導這項計劃,如何糾正這些錯誤?企業需要回答這些問題。雖然不能保證能夠避免算法、偏見、歧視性結果或其他傷害帶來的意外后果。但良好的人工智能治理肯定會有所幫助。”
版權聲明:本文為企業網D1Net編譯,轉載需注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。