可解釋的人工智能意味著人類可以理解IT系統(tǒng)做出決定的路徑。人們可以通過分解這個概念來探究人工智能如此重要的原因。
雖然人工智能應(yīng)用越來越廣泛,但關(guān)于人工智能也有一些誤解。有些人采用“黑盒”這個術(shù)語描述人工智能,認為其內(nèi)涵是神秘和不祥的部分,其“X檔案”的內(nèi)容比IT 日常業(yè)務(wù)還要多。
然而,像機器學(xué)習(xí)或深度學(xué)習(xí)這樣的人工智能系統(tǒng),確實需要人工輸入,然后在沒有可解釋的場景的情況下產(chǎn)生輸出(或做出決定)。人工智能系統(tǒng)做出決定或采取行動,人們不一定知道它為什么或如何達到這個結(jié)果。人工智能系統(tǒng)就是這么做的,而這就是人工智能的黑盒模型,它確實很神秘。在某些用例中應(yīng)用很好,而在其他情況下卻不一定。
PubNub公司首席技術(shù)官兼聯(lián)合創(chuàng)始人Stephen Blum表示:“對于像人工智能驅(qū)動的聊天機器人或社交信息的情感分析這樣的小事情,而人工智能系統(tǒng)是否在黑盒中運行并不重要。但是對于人類具有巨大影響的用例(例如自動駕駛車輛、飛行導(dǎo)航、無人機、軍事應(yīng)用)能夠理解決策過程是至關(guān)重要的任務(wù)。隨著人們在日常生活中越來越依賴人工智能,需要能夠理解其思維過程,并隨著時間的推移做出改變和改進。”
輸入可解釋的人工智能——有時以縮寫詞XAI或類似術(shù)語(如可解釋的AI)來表示。顧名思義,它可以被人類解釋和理解,雖然這是一種有點簡化的方式,是一種可解釋的人工智能。
以下是最近的HBR公司分析服務(wù)研究報告《現(xiàn)實世界人工智能的執(zhí)行指南》中更明確的定義:“機器學(xué)習(xí)技術(shù)是一種使人類用戶能夠理解、適當信任和有效管理的人工智能。”
而包括美國國防部高級研究計劃署(DARPA)在內(nèi)的多個組織正在努力解決這個問題。
“信任”這個詞很關(guān)鍵。為此,人工智能專家Blum和其他專家提出了可解釋的人工智能定義,并解釋這一概念對于從金融服務(wù)到醫(yī)學(xué)等領(lǐng)域的人工智能工作的組織至關(guān)重要的原因。這種背景可以加強組織成員和團隊的理解,并幫助組織中的其他人員理解可解釋的人工智能及其重要性。以下先從定義開始。
簡單定義的可解釋人工智能
SAS公司執(zhí)行副總裁兼首席信息官Keith Collins說,“‘可解釋的人工智能’術(shù)語是指人類能夠通過動態(tài)生成的圖表或文本描述輕松理解人工智能技術(shù)做出決策的路徑。”
PubNub公司首席技術(shù)官和聯(lián)合創(chuàng)始人Stephen Blum說,“可解釋的人工智能可以等同于數(shù)學(xué)問題中的‘展示工作’。所有的人工智能決策過程和機器學(xué)習(xí)都不是在黑盒中進行的——它是一種透明的服務(wù),具有被人類從業(yè)者解剖和理解的能力。”
Sutherland公司首席分析官Phani Nagarjuna說,“可解釋的人工智能是我們可以解釋人工智能的結(jié)果,同時在人工智能達到結(jié)果的路徑上能夠清楚地解釋從輸入到結(jié)果。”
SPR公司數(shù)據(jù)分析師Andrew Maturo說,“可解釋的人工智能是一種機器學(xué)習(xí)或人工智能應(yīng)用,伴隨著易于理解的推理,它如何得出一個給定的結(jié)論。無論是通過先發(fā)制人的設(shè)計還是回顧性的分析,都在采用新技術(shù)來降低人工智能的黑盒不透明性。”
CognitiveScale公司創(chuàng)始人和首席技術(shù)官Matt Sanchez說,“簡單來說,可解釋的人工智能意味著人工智能在其操作中是透明的,這樣人類就能夠理解和信任決策。組織必須問這個問題——那么能解釋其人工智能是如何產(chǎn)生這種特定的洞察力或決策的嗎?”
為什么可解釋的人工智能很重要
Sanchez的問題引發(fā)了另一個問題:為什么可解釋的人工智能很重要?其原因是多方面的,這可能對人們、企業(yè)、政府和社會產(chǎn)生巨大影響。在此考慮一下“信任”這個詞。
IBM Watson物聯(lián)網(wǎng)高級產(chǎn)品經(jīng)理Heena Purohit指出,人工智能(IBM稱之為“增強型智能”)和機器學(xué)習(xí)已經(jīng)在以復(fù)雜的方式處理大量數(shù)據(jù)方面做得非常出色。但Purohit說,人工智能和機器學(xué)習(xí)的目標是幫助人們提高工作效率,做出更明智、更快速的決策——如果人們不知道他們?yōu)槭裁匆龀鲞@些決策,這就更加困難了。
Purohit說:“由于人工智能的目的是幫助人們做出更高的決策,當用戶改變行為或根據(jù)人工智能輸出(或)預(yù)測采取行動時,企業(yè)就實現(xiàn)了人工智能解決方案的真正價值。但是,為了讓用戶改變自己的行為,就必須相信系統(tǒng)的建議。當用戶感覺到有能力并知道人工智能系統(tǒng)如何得出建議(或)輸出時,就會建立這種信任。”
從組織領(lǐng)導(dǎo)的角度來看,可解釋的人工智能在某種意義上是讓人們信任并購買這些新系統(tǒng),以及它們?nèi)绾胃淖內(nèi)藗兊墓ぷ鞣绞健?/div>
“看到‘人工智能黑盒’問題仍然存在,我現(xiàn)在確保我們的人工智能解決方案是可以解釋的。”Purohit補充說,“在設(shè)計人工智能產(chǎn)品以確保可以解釋人工智能時,我想問的一個問題是:人工智能是否使人類容易理解、檢測和理解其決策過程?”
可解釋的人工智能有助于識別人工智能偏見和審計
可解釋的人工智能對于信任和透明度至關(guān)重要的其他領(lǐng)域?qū)⒃絹碓街匾缛魏稳斯ぶ悄芷娍赡軐θ藗儺a(chǎn)生有害影響的場景。
SPR公司的Maturo說,“盡管這種解釋的任務(wù)很麻煩,但這是一項值得努力的嘗試,通常可以揭示模型中的偏見。在許多行業(yè)中,這種透明度可能來自法律、財政、醫(yī)療或道德義務(wù)。在可能的情況下,模型看起來越不神奇,它的用戶就會越多。”
可解釋的人工智能對于問責(zé)制和可審計性也很重要,它將(或者至少應(yīng)該)仍然存在于組織的人員中,而不是其技術(shù)中。
“企業(yè)和個人總是需要進行決定。只是按照算法推薦的做法并不具有說服力。”Ness公司數(shù)字工程首席技術(shù)官Moshe Kranc說。Kranc指出,可解釋的人工智能對于識別錯誤的結(jié)果是至關(guān)重要的,這些錯誤的結(jié)果來自于諸如有偏見或調(diào)整不當?shù)呐嘤?xùn)數(shù)據(jù)和其他問題。能夠跟蹤人工智能系統(tǒng)得出不良結(jié)果的路徑可以幫助人們解決潛在問題,并防止它們再次發(fā)生。
“人工智能技術(shù)并不完美。盡管人工智能的預(yù)測可能非常準確,但模型總是有可能出錯。”Clara Analytics公司數(shù)據(jù)科學(xué)主管Ji Li說,“人工智能技術(shù)具有可解釋性,幫助人類快速做出基于事實的決定,但允許人類仍能使用他們的判斷力。有了可解釋的人工智能,人工智能將成為一種更有用的技術(shù),因為人類并不總是相信或從不相信預(yù)測,但卻不斷幫助改進預(yù)測。”
事實上,可解釋的人工智能最終將使人工智能在商業(yè)環(huán)境和日常生活中變得更有價值,同時也防止了不良后果。
“可解釋的人工智能對業(yè)務(wù)很重要,因為它為我們提供了解決問題的新方法,適當?shù)財U展流程,并最大限度地減少人為錯誤的機會。提高的可視性有助于增強理解,并改善客戶體驗。”SAS公司首席信息官Collins說。
Collins指出,這在醫(yī)療和銀行等受到嚴格監(jiān)管的組織尤為重要,這些組織最終需要能夠展示人工智能系統(tǒng)是如何做出決定或結(jié)果。而即使在不需要審計其人工智能的行業(yè)中,可解釋人工智能的核心信任和透明度也是值得的,他們可以具有良好的商業(yè)意識。
“在采用可解釋的人工智能的情況下,人類增強了技術(shù)的知識和經(jīng)驗,以調(diào)整和加強分析模型以供將來使用。”Collins說,。“人類的知識和經(jīng)驗有助于學(xué)習(xí)技術(shù),反之亦然。這是一個持續(xù)的反饋循環(huán),可以成為企業(yè)的一種動態(tài)資產(chǎn)。”
關(guān)鍵字:人工智能
原創(chuàng)文章 企業(yè)網(wǎng)D1Net