由于“文明人工智能”塵囂甚上,顧問們建議人們采取各種步驟,以創建公平和公正的算法。這暗地里說明世上沒有什么靈丹妙藥。
人工智能(AI)可能是數字時代最具顛覆性的技術,因為企業正在研究如何利用機器學習(ML)和其它人工智能工具來挖掘客戶洞察,發現人才和保護企業網絡。雖然IT部門可以快速推出大量技術并從中受益,但有證據表明,首席信息官在實施人工智能時應該格外小心,包括采用涉及到濃厚道德因素的技術。
為什么呢?因為人工智能頗受偏見問題的困擾。有這樣一個例子,亞馬遜廢棄了一個招聘工具,因為它未能對從事軟件開發工作和其它崗位的女性做出公正的評價。還有一個例子,麻省理工學院和多倫多大學的研究人員發現,亞馬遜的面部識別軟件將女性(尤其是皮膚黝黑的女性)誤認為男性。
人工智能中存在很多偏見
亞馬遜并不是唯一的例子,因為人工智能問題已經出現在其它公司和其它高風險領域。臉書的程序經理在測試公司的Portal視頻聊天設備時遇到了算法歧視。ProPublica表明,美國各地用來預測未來罪犯的軟件對非洲裔美國人存在偏見。加州大學伯克利分校對金融科技所做的研究發現,拉丁美洲和/或非洲裔美國人在使用了面對面決策和算法的抵押貸款中要支付更高的利息。
同樣值得關注的是與邊緣情況有關的歧視,這種偏見十分隱秘。在“替代性歧視”中,郵政編碼可能會成為種族的替代品;詞語的選擇則可能成為性別的替代品;如果你加入一個討論基因突變的臉書小組,那么你的健康保險成本很可能會增加,即便這樣的信號尚未明確編入算法中。
很明顯,人工智能受到能對物理世界產生影響的數字化偏見的困擾。畢竟,算法是“人類設計的產物”,它繼承了人類的偏見,紐約大學AI Now研究所的聯合創始人Kate Crawford這樣說道。IEEE Spectrum稱,這種偏見可以持續數十年。
因此,IT領導者越來越關注“可解釋的”人工智能。他們渴望得到能明確表達結果的算法,這些算法在理想情況下能滿足監管機構和企業高管的需求。但由于存在固有的偏見,也許他們真正需要的是“文明人工智能”,或者完全不偏不倚地運作的算法。
使用倫理學消除人工智能偏見:六個建議
隨著首席信息官加快對人工智能的采用,采取小心謹慎的方法至關重要。Gartner于2019年對3,000名首席信息官所做的調查顯示,采用人工智能的企業數量從4年前的10%上升至37%。短期內,公司應該嘗試基于其對人工智能的使用制定道德規范。德勤、簡柏特(Genpact)和峽灣(Fjord)的專家討論了企業應該如何合理地推進人工智能的部署。
董事會和利益相關者都參與進來
由于與人工智能相關的道德問題可能對公司的聲譽、財務和戰略帶來巨大且長期的風險,因此首席信息官應與董事會合作,以減輕與人工智能相關的風險,德勤美國的創新團隊的董事總經理David Schatsky如是說。如果要將道德規范融入人工智能,首先要確定這對利益相關者(包括客戶、員工、監管機構和公眾)有何重大意義。Schatsky說:“組織必須參與其中并公開利益相關者的身份。”
成立“數字倫理”小組委員會
董事會已經有審計委員會,風險委員會和技術委員會,但現在也許該增加一個致力于人工智能事務的委員會,為企業設計和實施各種技術的簡柏特的首席數字官Sanjay Srivastava如是說。這樣一個“數字倫理”委員會必須由跨職能領導者組成,因為他們可以與利益相關者合作,從而幫忙設計和管理人工智能解決方案。該委員會還必須熟悉與人工智能相關的法規。在接受簡柏特調研的公司中,95%表示,它們希望為消除人工智能偏見而努力,但只有34%采取了治理和控制措施。Srivastava說:“我們建議客戶盡快行動。他們雖然有這樣的意識,也明白其中的道理,但他們沒有實施治理和控制。”
利用設計思維
埃森哲峽灣設計咨詢公司的董事總經理Shelley Evenson表示,無論公司是在內部創建人工智能還是購買商業工具,它們都應該使用設計思維來打造解決方案,因為這有助于解決算法中可能存在的偏差。雖然使用天氣和社交媒體方面的征兆來預測銷量或產品需求的內部應用程序沒什么危害,至少沒有那些能對員工和客戶產生直接影響的征兆危害那么大,為設計技術的過程著想是一個很好的方法。
利用技術消除偏見
企業人工智能開發人員還必須接受培訓,以測試和修復無意中將夾帶了偏見的系統,這些偏見使用戶或其他受影響的各方受到不公平的待遇。公司還可以利用各種工具來檢測數據變量與敏感變量(如年齡、性別或種族)相關聯的工具,以及評估和解釋機器學習算法是如何生成輸出結果的方法。例如,Srivistava表示公司可以將數字“面包屑”插入算法中,從而跟蹤決策過程。
對人工智能的使用保持透明
只要對人工智能的使用持公開透明的態度,公司就可以與利益相關者建立互信的關系。例如,Schatsky說,智能體應該將自身當成人類,不是偽裝成人類(如今很多聊天機器人仍在模仿人類)。公司還應披露對客戶造成影響的自動決策系統的使用。在可能的情況下,公司應該清楚地對這一切做出解釋:它們收集哪些數據,他們使用這些數據來干什么,以及這些用法會對客戶形成怎樣的影響?。
緩解員工對失業的焦慮
人工智能將在多大程度上引發失業或改變工作,這目前尚不清楚,但公司應該開始對員工展開教育,讓他們知道自己的工作可能會發生怎樣的變化,并建議他們采取各種提升技能的方法,從而與時俱進。這包括對工人進行再培訓,因為他們的所做的事情將被自動化——或給他們時間尋找新的工作。例如,由于機器人過程自動化(RPA)漸漸開始處理低級的任務,保險公司State Auto正在訓練員工處理更復雜的理賠工作。
最重要的因素
Schatsky說,這一切都不容易,主要是因為人們沒有在某些情況下或與某些利益相關者就道德標準達成充分的共識。Schatsky說,無論采用何種方法,企業要采取行動而不是“等待人工智能相關法規出臺”,這才是明智之舉。
政府正朝著這個方向努力。歐盟委員會于4月就組織應如何開發人工智能(AI)的道德應用發布了一系列指導方針。兩天后,美國政府提出了《2019年的算法責任法案(Algorithmic Accountability Act)》,以處理高風險的人工智能系統,例如能根據敏感的個人數據檢測人臉或做出重要決策的技術。
無論監管在未來會是什么樣子,首席信息官尚有時間來解決問題。目前,由于數據匱乏,而且數據質量有問題,企業人工智能的采用受到阻礙;機器學習建模師、數據科學家和其它領域的人工智能專家十分稀缺;結果十分不確定;當然,O’Reilly的一項調查指出,還有各種道德問題和偏見。
O'Reilly發現,金融服務、醫療和教育部門占采用人工智能的企業的58%,而電信、媒體以及娛樂業、政府機構、制造業和零售企業各占4%。