自誕生以來,AI一直是一個強大的工具,通過自動化任務和簡化操作,構建更好的技術,并使最終用戶體驗更輕松和更個性化,幫助改善內部運營。雖然AI對社會的影響并不新鮮,但更先進的AI解決方案的崛起引發了人們對這些技術將如何利用的擔憂。
AI的繁榮創造了對強大的AI治理的巨大需求。在宏偉的計劃中,AI治理是一個整體術語,對許多不同的群體可能意味著許多不同的事情,可能是因為可以(也應該)實施的治理的多個層次。具體來說,AI治理可以分為三個層次:企業治理、用例治理、模型治理。由于治理的每一層對于任何企業的不同成員都有一個特定的目的,因此必須更詳細地檢查這三個治理級別。
治理的企業層面
在任何多層AI治理計劃中,第一個級別是企業級別,這一級別起著指導的作用,幫助所有從業者堅持特定的、必要的道德和責任級別。每家公司可能都有自己專有的AI行為準則,但它通常圍繞幾個關鍵原則。例如,萬事達卡建立了一套以三項核心原則為核心的AI行為準則:包容性、可解釋性和責任感。核心原則可能有所不同,但對于構建類似的基于價值觀的使命聲明的公司來說,這是一個很好的參考。
雖然使命聲明是重要的起點,但企業層面的治理不僅僅是文字,它們對于幫助企業在為時已晚之前為即將到來的AI法規做好準備至關重要。在這一層面上,定義參與AI開發的每個成員的責任對于部署成功的實施程序至關重要。每個有效的AI治理計劃都明確定義了AI倫理、責任和安全的內部政策,并制定了持續執行這些政策的流程。
幸運的是,企業在實施這些政策時不必從頭開始。現有的政策和框架,如NISTAI風險管理框架和歐盟AI法案,就企業如何建立成功的企業治理水平提供了明確的指導。例如,NIST框架的“治理”支柱列出了各種企業治理政策和流程,而歐盟AI法案包含了幾條概述AI治理的企業要求的條款。
治理的用例級別
AI治理的第二個級別側重于任何業務中AI的特定用例。用例級別的治理主要集中于確保AI的任何應用程序及其對特定任務的使用都符合所有必要的治理標準,這是因為不適當地使用AI所產生的風險與它將如何應用于任何企業的運營密切相關。
AI模型可以用于許多不同的事情,這些用例可以分為兩個單獨的類別:低風險和高風險。例如,低風險用例可能是簡單的任務,比如總結會議筆記。相比之下,高風險用例,如匯總醫療患者記錄,涉及更敏感的信息,因此需要更多的審查。在這個階段,風險映射和緩解也是成功的關鍵,這通常依賴于法律和合規團隊發揮主要作用,特別是在審查和仔細審查AI用例和預期目標方面。
這一級別的治理也映射到總體企業級別的治理,因為這些法律和合規團隊將需要確認每個AI用例都符合監管要求和參數。正如這些團隊的參與可能暗示的那樣,用例級別的治理意味著企業必須仔細和勤奮地記錄低風險和高風險用例的幾件事,包括將AI用于特定任務的預期目標、為什么AI是適當的理由、特定于上下文的風險,以及降低整個企業中的風險的技術和非技術緩解策略。
模型級治理
最后也是最細粒度的級別是治理的模型級別。在這個階段,AI從業者將承擔主要責任,包括模型評估、數據準確性測試以及進行模型偏差和公平性評估。
顧名思義,模型級治理迎合了任何AI系統的實際技術功能,并確保它們滿足預期的公平、準確和安全標準。更具體地說,負責管理治理模式級別的從業人員必須采取措施,考慮到保護私人信息,同時確認不存在可能影響受保護或邊緣化群體的偏見。
在技術層面,治理的模型級別還必須持續測試模型,以防止模型漂移,當模型的預測能力因外部環境的變化而降低時,模型漂移就會發生。模型漂移可能有幾個原因,比如模型沒有時間“趕上”的人口結構變化。幸運的是,盡管模型漂移和偏差可能會在人為監督下發生,但治理的模型級別可以得到幫助準確訓練和評估數據集的技術解決方案的支持。
由于這種類型的治理具有高度集中的性質,因此企業可能只有在某些時候才有可能實現特定的模型級別策略,尤其是在訪問諸如ChatGPT等公開可用的大型語言模型時。如果公司發現自己處于這種境地,他們將需要加倍管理他們可以控制的東西,例如用例和治理的企業級別。
AI治理不能再僅僅專注于評估ML模型和數據集,企業級、用例和模型級治理的組合將創建企業負責任地使用AI所需的整體治理模型。隨著監管指導的繼續形成,企業可以采取行動建立他們的治理政策,為立法可能導致的任何徹底變化做好準備,并對建設合規、道德和準確的AI更有信心。
關于企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。