人工智能(AI)的能力無疑令人震驚,這讓許多人想知道它是如何做到的?,而這個問題的答案推動了可解釋人工智能的概念,有時候稱為XAI。
許多人喜歡參與有關可解釋人工智能的討論,但他們往往沒有提出能夠實現的可行性想法。
什么是可解釋的人工智能?
可解釋的人工智能是通過人工智能算法解釋它是如何以人類可以破譯的方式得出結論的想法。這將面臨一個眾所周知的“黑盒問題”,其中人工智能算法可以確定某些內容,但無法提供導致這些結果的因素的詳細信息。那么,人們怎么認為他們可以相信人工智能算法所說的內容呢?
實現可解釋人工智能的目標是一項令人欽佩的必要壯舉,但這并不簡單。在將可解釋的人工智能變成現實之前,行業人士需要認識到以下四件事情。
1.解釋可能不是建立信任的最佳方式
人們能夠理解的是,如果人工智能可以自我解釋,用戶以及使用人工智能做出決策的企業會相信人工智能更值得信賴。但是一些人認為,努力實現可解釋的人工智能并不是建立增強信任的最佳途徑。相反,測試和分析可以給出所尋求的答案。
這是因為人工智能用來得出結論的方法可能非常復雜,即使提供了解釋,人們也無法理解。但是,當人工智能用戶能夠測試和分析人工智能所做的決策,并確保它們顯示出足夠的一致性,以顯示系統按預期工作時,就會產生信任。
可解釋的人工智能仍然是有用的,但是人們不應該把它視為最終解開人工智能的奧秘。
2.可解釋的人工智能與應用程序設計直接相關
對于可解釋的人工智能而言,另一件至關重要的事情是,與大多數人認為的相反,人們不需要將人工智能視為獲得答案的起點。相反,使用可解釋的人工智能取得進展意味著從應用程序級別開始。
例如,用于促進貸款審批流程的人工智能應用程序能夠以這樣的方式運行,即允許人們采取人工智能工具的每個步驟以及通過這些操作創建的路徑。然后,人們可能會深入挖掘并查看應用程序的哪些特征觸發了批準或拒絕。
采用這種方法并不一定能為給定的應用程序帶來完全可解釋的人工智能。但是,記住可解釋性對于參與構建使用人工智能的應用程序的人來說是一個很好的策略。
3.強化學習比人們想象的要復雜得多
人工智能算法以多種方式學習。這是一種有監督的學習,它涉及人工智能從預先分類的數據變得更智能,以便查看和分類。或者,當人工智能算法仔細檢查輸入數據以找到其中的模式時,就會發生無監督學習。最后,有一種被誤解的第三種人工智能學習風格稱為“強化學習”,也有一些人稱之為“自我學習”。
這種算法根據收到的反饋,將執行的操作理解為可取或不可取。人們需要關注由它所做的事情引起的響應,然后從嘗試和錯誤的方法中學習。
不幸的是,考慮到復雜任務的成功都是由所有行動的總和造成的,因此加強人工智能并不是那么簡單。考慮到這一點,人們必須考慮到一些使增強人工智能有效的必要條件。例如,系統必須提供具體的激勵。但是,不同的場景有不同的相關期望動作。
此外,任何適當使用強化學習的系統都必須考慮環境中的每個可用變量。但是,當人們考慮到許多現實問題的不可否認的復雜性時,很容易看出這是一個非常耗時的步驟。
當人們努力實現可解釋人工智能的目標時,他們需要記住人工智能算法以多種方式學習。此外,由于所有變量都在發揮作用,強化學習尤其困難。整理出描述強化學習算法得出結論的所有細節可能是一個過于漫長的過程。
4.所有關于可解釋的人工智能的對話應包括道德倫理部分
當人們談論人工智能時,道德倫理問題經常發揮作用。當使用人工智能處理可能導致傷亡的事件時,尤其可能發生這種情況,例如加強國防力量。盡管人工智能機器最終可能比制造它們的人更聰明,但是人類仍然有責任設計出盡可能符合道德規范的人工智能機器。
有些人甚至爭辯說,實現可解釋人工智能的里程碑意味著人們將機器保持在比人類更高的標準。畢竟,當人們要求充分解釋所做出的決定以及如何做出決定的時候,做到這些事情往往是不可能的。轉瞬即逝的想法和原始欲望是兩種能讓人們在意識原因之前就開始行動的因素。
但是,是什么讓機器實施道德的行為與非道德的行為?幾乎可以肯定的是,編程已經開始發揮作用,但它很可能無法說明整個過程。因此,盡管讓人工智能解釋自己是至關重要的,但也應該對人工智能合乎道德更多的關注——即使在可解釋性出現之前。
發展之路還很漫長
這份清單強調了許多人喜歡參與討論有關可解釋人工智能的一些原因,但他們往往沒有提出如何實現的想法。
盡管如此,這仍是一個有價值的目標,隨著人們逐漸開發和采用人工智能,并用它實現新事物。