AI幾乎滿足了幾乎每個行業組織的胃口。隨著AI試點轉向實際應用,關于道德AI必要性的討論也在增加,同時也出現了“公平”、“隱私”、“透明”、“責任”和最大的術語——“偏見”。
隨著AI成為人們工作和開展業務的不可或缺的一部分,確保這些措施和其他措施得到考慮是CIO們將努力應對的一項艱巨任務。
對于許多CIO來說,實施可能還處于萌芽階段,但減輕AI模型中的偏見并平衡創新與倫理考慮已經是他們面臨的最大挑戰之一,他們發現,在技術進步和確保AI不會導致有害結果之間的界限很窄。
全球咨詢企業Egon Zehnder服務和AI實踐小組成員Christoph Wollersheim指出了大多數企業在實施AI時需要關注的五個關鍵領域:準確性、偏見、安全、透明度和社會責任。
Wollersheim最近與人合著了《董事會成員監督AI指南》一書,他說,不幸的是,用AI實現100%的準確率是不可能的。“真正的倫理問題在于企業如何防范錯誤信息。如果向客戶提供虛假數據,或者如果關鍵決策基于不準確的AI響應,該怎么辦?企業的回應既需要一個切實可行的計劃,也需要一個透明的溝通策略。”
他指出,當AI根據歷史數據進行訓練時,偏見可能會在不經意間持續存在。
“執行管理層和董事會都必須確保公平使用AI,并防止歧視。”他說,糾正偏見的研究正在進行中,使用合成數據來處理性別、種族和民族等屬性,“但總有必要應用以人為中心的原則。”
Wollersheim說,保護敏感信息的需要對于符合道德的AI部署來說是至關重要的,因為AI對數據的嚴重依賴增加了入侵和未經授權訪問的風險。“企業必須加強防御,防止可能誤導AI模型并導致決策失誤的攻擊。確保敏感信息的安全對于道德上的AI部署是至關重要的。“他說。
至于透明度,這不僅僅與算法有關,還與建立信任有關,他說,“利益相關者需要理解AI是如何做出決策和處理數據的。一個透明的AI框架是道德使用、問責和維護信任的關鍵。”
企業還必須考慮指導他們的價值觀,以及他們在再培訓、技能提升和工作保護方面的義務。Wollersheim說:“道德AI是關于為我們的勞動力塑造一個負責任的未來。”
Wollersheim說,為了解決這些問題,建立一個AI審查委員會和實施一個道德的AI框架是至關重要的。“一個道德的AI框架為每個項目的監測和批準提供了明確的指導,無論是內部的還是外部的。由技術和商業專家組成的AI審查委員會確保倫理考慮處于決策的前沿。”
以下是CIO如何在其企業中解決道德AI的問題。
讓道德AI成為一項團隊運動
PlexusWorldwide是一家使用AI來識別欺詐性賬戶創建和交易的企業,這家市值5億美元的全球健康和健康企業的CIO兼首席技術官艾倫·麥金托什說。麥金托什認為,偏見從根本上說是一個數據問題。“我們試圖通過利用和驗證多個完整的數據源來消除偏見和不正確的結果。”他說。
麥金托什說,PlexusIT還處于在企業的電子商務平臺中使用AI的分析階段,“以獲得更好的見解,以預測和優化客戶體驗,并增強個性化。我們還看到了自動化的機會,可以消除許多傳統的人工和重復性任務。”
他說,為了確保遵守符合道德的AI實踐,PlexusWorldwide組建了一個由IT、法律和人力資源代表組成的團隊,負責AI治理和政策的發展和演變,該團隊確定了企業的風險容忍度、可接受的用例和限制以及適用的披露。
麥金托什說,即使有一個專注于AI的團隊,識別風險并了解組織打算如何在內部和公開使用AI也是具有挑戰性的。他說,團隊成員還必須理解并解決AI偏見、錯誤聲明和不正確結果的內在可能性。“根據用例的不同,你的企業和品牌的聲譽可能會受到威脅,因此你必須規劃有效的治理。”
考慮到這一點,麥金托什說,CIO們“不要急于沖到終點線”是至關重要的。在實施和公開技術之前,企業必須創建一個全面的計劃,并專注于開發治理框架和AI政策。麥金托什表示,確定合適的利益相關者,如法律、人力資源、合規和隱私以及IT,是Plexus開始其道德AI過程的地方。
“然后我們制定了一份政策草案,概述了角色和責任、范圍、背景、可接受的使用指南、風險容忍度和管理以及治理,”他說,“我們繼續迭代和演變我們的政策,但它仍在發展中。我們打算在2024年第一季度實施該計劃。”
麥金托什建議尋找第三方資源和主題專業知識。麥金托什解釋說:“它將極大地幫助加快你的計劃和框架的開發和執行,并且,根據你當前的計劃管理實踐,為你的AI采用計劃提供相同級別或更高級別的嚴格要求。”
腳步緩慢,這樣AI就不會“失控”
CIO Matt Richard表示,代表50多萬建筑工人、公共雇員和郵件處理員的北美勞工國際聯盟(LIUNA)已經嘗試使用AI,主要是為了文件的準確性和澄清,以及撰寫合同。
他說,隨著LIUNA在2024年擴大AI用例,“這就產生了一個問題,那就是我們如何在倫理上使用AI。”該組織已經開始試行Google Duet,將撰寫和談判承包商協議的過程自動化。
Richard說,目前,工會官員沒有使用AI來識別成員的想要和需求,也沒有梳理可能敏感的招聘數據,并根據模特的培訓方式對人們產生偏見。
“這些都是我感到緊張的地方:當一個模特告訴我一個人的時候,我覺得我們還沒有準備好進入這個領域,因為坦率地說,我不相信受過公共培訓的模特能讓我洞察我想聘用的人。”
盡管如此,Richard預計LIUNA仍將經歷一次“自然進化”,即未來LIUNA可能希望利用AI來獲得對其成員的洞察,以幫助工會為他們帶來更好的利益。他說,就目前而言,“我們希望如何做到這一點,這仍然是一個灰色地帶。”
Richard說,該工會還在努力增加其會員人數,其中一部分意味著使用AI來有效地識別潛在成員,“而不是識別相同的同質性人。我們的組織非常努力,在賦予少數族裔和女性權力方面做得很好,我們希望發展這些群體。”
這就是Richard擔心AI模型如何使用的地方,因為避免“尋找相同的刻板印象人口的兔子洞”并引入偏見意味著人類必須成為這一過程的一部分。“你不能讓模特做所有的工作,”他說,“你知道你今天所處的位置,然后我們停下來說,‘好吧,人類需要介入,看看模型告訴我們什么。’”
“你不能讓AI橫沖直撞,…沒有任何干預。”他補充說,組織不應該在AI領域采取“簡單的解決辦法”,只研究工具能做什么。“我擔心的是,人們會購買并實施一個AI工具,然后放手信任它…,你必須小心,這些工具沒有告訴我們我們想要聽到的。“他說。
為此,Richard認為AI可以被用作啟動器,但IT領導者必須利用團隊的直覺,“以確保我們不會落入只相信華而不實的軟件工具的陷阱,這些工具不會給我們提供我們需要的數據。”他說。
對AI倫理的個人看法
Group的CIO Jan Cenkr表示,與LIUNA一樣,總部位于捷克的全球消費金融提供商Home Credit也處于AI之旅的早期,使用GitHub Copilot進行編碼和文檔流程。
Cenkr同時也是Home Credit子企業EmbedIT的首席執行官,他說:“它在節省時間方面提供了巨大的優勢,這反過來也有有利的成本因素。”從一開始,倫理AI就是Cenkr的首要考慮因素。
“當我們開始推出我們的AI工具試點時,我們也在內部就創建與這項技術的使用相配套的倫理治理結構進行了深入的討論,這意味著我們有真正的檢查措施,以確保我們不會違反我們的行為準則。”
Cenkr補充說,這些代碼會定期更新和測試,以確保它們盡可能地健壯。
他補充稱,數據隱私是最具挑戰性的考慮因素。“我們向我們的AI平臺提供的任何信息和數據都必須絕對遵守GDPR規定。”由于Home Credit在多個司法管轄區運營,IT還必須確保所有這些市場的合規性,其中一些市場有不同的法律,這增加了復雜性。
Cenkr說,企業應該“以一種反映你個人對道德的態度的方式”來發展他們的治理結構。“我相信,如果你像在個人和日常生活中應用的道德規范一樣用心去發展這些道德結構,這些結構將變得更加安全。”
此外,Cenkr表示,IT應該準備好定期更新其治理政策。“AI技術每天都在進步,要跟上它的發展步伐是一個真正的挑戰,無論這可能有多令人興奮。”
設置護欄
聊天機器人等AI工具在UST已經使用了幾年,但GenAI是一個全新的領域。這家數字轉型企業的首席戰略官兼CIO克里希納·普拉薩德表示,這從根本上改變了商業模式,并使倫理AI成為討論的一部分,同時也承認“如今它更具理論性。”
普拉薩德說,在實現考慮中,倫理AI“并不總是出現,但我們確實討論了…我們需要有負責任的AI和一些能力來獲得透明度,并追溯推薦是如何做出的。”
普拉薩德說,UST領導人之間的討論集中在該企業不想在AI領域做什么,“以及我們希望在今天理解的情況下在哪里劃定界限,我們如何在不造成傷害的情況下忠于我們的使命。”
普拉薩德呼應了其他人的觀點,他表示,這意味著人類必須成為等式的一部分,因為AI更深地植根于企業內部。
UST提出的一個問題是,如果領導者在機器人監聽的情況下就員工表現進行對話,這是否是保密的妥協。普拉薩德說:“類似的事情已經開始涌現,但在這一點上,我們可以放心地使用[微軟]Copilot作為一種總結對話的方式。”
另一個考慮因素是如何保護圍繞該企業開發的工具的知識產權。“基于今天軟件供應商提供的保護,我們仍然認為數據包含在我們自己的環境中,沒有證據表明數據在外部丟失,”他說。出于這個原因,普拉薩德說,他和其他領導人對繼續使用某些AI工具沒有任何顧慮,特別是因為他們看到了生產率的提高。
盡管普拉薩德認為人類需要參與進來,但他也對人類的投入感到擔憂。“歸根結底,人類天生就有偏見,因為我們所接觸的環境的性質、我們的經歷以及它是如何形成我們的思維的。”他解釋說。
他還擔心,當壞人使用客戶的數據為自己開發新模型時,他們是否會獲得某些AI工具。
普拉薩德說,隨著軟件變得更加流行,這些都是領導者必須擔心的領域。他表示,與此同時,CIO必須帶頭,展示AI如何被永遠利用,以及它將如何影響他們的商業模式,并將領導層聚集在一起,討論最佳前進道路。
他說:“CIO必須在推動這種對話中發揮作用,因為他們可以打破神話,也可以執行。”他補充說,他們還必須為那些有時變得非常困難的對話做好準備。
例如,如果一個工具提供了某種功能,“我們是希望盡可能地使用它,還是應該因為這是正確的事情而保留它,”普拉薩德說,“這是最難的對話,”但CIO們必須表明,一種工具“可能會超出你的想象”。“對我來說,這一部分仍然有些模糊,那么如何對模型…施加約束呢,在選擇提供使用AI的新產品和服務之前。”
企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。