人工智能(AI)為我們提供了巨大的機會,不僅可以提高效率并降低成本,還可以幫助我們重新思考業務并解決關鍵問題。然而,盡管人工智能擁有這些美好前景,但在各個經濟體和社會中,人們都有著類似的焦慮。許多人認為先進技術會注定和不可避免地帶來深刻變化。
隨著人工智能變得更加復雜,它將開始獨立制定或協助人們做出對個人生活產生更大影響的決策。隨著人們適應自動化決策在社會中發揮越來越大的作用,這也將引發道德層面的挑戰。
因此,商業領導者和決策者需要認真對待這些擔憂,并對啟用和應用“可靠的人工智能”負責。
其可以被描述為遵循以下原則:
• 問責制和透明度
• 安全防范機制
• 以人為本的設計
問責制和透明度
如果人工智能用于評估新職位的應聘申請,那么如何確保申請人得到公平和公正的審核?應聘者如何確信人工智能不會因為訓練方式而出現錯誤或內在偏見?
存在的風險是,自動化流程有可能通過我們不了解或無法解釋的過程來“學習”,從而學到會導致我們可能不想看到的結果的模式。算法可能會延續我們社會中現有的偏見和歧視,從而增加我們對實施人工智能的缺乏信任。
例如,弗吉尼亞大學的研究人員利用廣泛使用的照片數據集對一個人工智能程序進行訓練,后來發現該系統放大了傳統的性別偏見。在后來的訓練中,它甚至將站在火爐旁邊的男人歸類為女人,這是人類不可能犯得錯誤。
領導者需要透露機器決策的機制。他們使用的人工智能必須產生可解釋的結果,促進算法問責制并消除偏見。這意味著領導者需要找到一些方法,例如對算法進行審核,并對所處理數據進行評估,以便發現偏見。當系統出錯時,必須清楚責任所在。
安全防范機制
建立消費者對人工智能和自動化系統的信任需要有安全防范機制。確定財務責任是做到這一點的一種方式,但確保物理安全防范機制是關鍵。
作為一個例子,最深入的討論是圍繞自動駕駛汽車展開的。德國在2017年通過了一項新法律,該法律規定司機或車輛制造商之間的賠償責任分擔取決于司機或自動駕駛車輛是否處于控制狀態。在這種做法的背后,汽車制造商已經表示,如果發生事故時,他們的“交通阻塞導航”功能正在使用中,則他們將承擔責任。
這里新增的內容是考慮到汽車制造商對其提供服務所承擔的責任,這是基于傳統保險架構制定出的。通過澄清和說明,讓人們對責任有更普遍的理解,組織機構可以幫助解決一些問題。然而,除了建立財務責任之外,安全組織需要處理的一些合理要求還包括確保將設計的安全性應用于自動駕駛系統中。
這包括確保人工智能被訓練成可以“舉手示意”,要求有智慧和經驗的人類提供幫助,以在臨界情況下作出最終決定,而不是在只有51%把握的情況下繼續進行操作。
以人為本的設計
人工智能應該能夠增強人們的判斷力,幫助人們識別和解決偏見,而不是無形地改變其行為以反映出所期望的結果。這就超出了消除人工智能自主決策產生的偏見的范疇。
領導者也應該認識到人類和人工智能具有互補技能的能力。以人為本的人工智能會利用人類擅長的批判性思維技能,并將其與人工智能的大量計算技能相結合。
例如,一個哈佛大學的病理學家團隊開發了一個基于人工智能的技術,可以更準確地識別乳腺癌細胞。病理學家以96%的識別準確率擊敗了只有92%識別準確率的這些設備。但是當人類和人工智能聯合起來時,我們看到了最大的驚喜。他們聯合起來后,可準確地識別99.5%的癌癥活檢標本。
在許多情況下,人工智能更善于做出決策—但這并不一定意味著它會做出更好的決策。領導者需要確保其組織的價值觀應融入到他們的人工智能中。部署人工智能而不依賴可靠的合規性和核心價值,這可能會使企業面臨重大風險,包括就業/人力資源、數據隱私、健康和安全問題。在某些情況下,人工智能甚至以聊天機器人、數字客服代理的形式出現,成為組織的主要代言人。人工智能的這種面向公眾的角色意味著客戶必須看到公司的價值觀。
最近,我在Fjord公司的同事宣稱,他們目睹了道德經濟的興起,這意味著組織無論是否有價值觀并為之辯護,在商業上這些內容從未像今天這樣至關重要--而且人工智能需要反映這些價值觀。