AlphaGo戰勝了人類頂尖圍棋選手,無人駕駛汽車開始在公路上運行,擅長聊天的機器人可以成為你的朋友,人工智能離我們越來越近,帶來很多希望的同時也引起了不少的憂慮和質疑,因為讓人摸不透的復雜算法就像是一個黑箱。那么這個黑箱究竟應不應該被打破?又該如何打破呢?
人工智能的挑戰已經到來
自去年AlphaGo戰勝人類頂尖圍棋手之后,人工智能這一概念真正成為了社會各界關注的焦點,也為各國政府所重視。
今天各類人工智能相關系統以深度學習算法為突出代表,憑借當今計算機系統及云計算平臺提供的強大計算能力,以及欣欣向榮的傳統和移動互聯網、物聯網所帶來的日益豐富多樣的數據資源,為人們提供了一幅可信的發展圖景,相應的算法已在許多領域付諸使用,引起了無限熱情期盼,也帶來了眾多質疑和擔憂。
無論期盼或是擔憂,我們都正在見證著一個新的信息時代的開啟。在這個時代,許多讓我們一時還琢磨不透的人工智能算法,在進行著認知、學習、預測和決策,可能為我們提供醫療、法律、金融等方面的建議或決策,也可能直接操控汽車、無人機,甚至大規模殺傷性武器。如果回顧信息技術的發展歷程,我們有理由相信,這一次技術創新和應用推廣的發展速度也許會超乎我們的想象。
人們常說,法律總是滯后于社會發展。面對互聯網技術帶來的社會影響,我們剛剛建立起有一定體系的理論和規范,人工智能的挑戰就已經到來。這一次,在政府、產業、資本和學術界的共力之下,面對人工智能可能帶來的巨大社會影響,恐怕并無太多時間留給法律和政策制定者來慢慢觀察和考量。
追求可解釋性依然是我們信賴的思維模式
在時下熱議的人工智能相關倫理、算法歧視、算法正確性、安全性等問題中,有一個問題被時常提起,即以深度學習算法為代表的人工智能算法的可解釋性問題。
人類理性的發展歷程使我們相信,如果一個判斷或決策是可以被解釋的,我們將更容易了解其優點與不足,更容易評估其風險,知道其在多大程度上、在怎樣的場合中可以被信賴,以及我們可以從哪些方面對其進行不斷改善,以盡量增進共識、減少風險,推動相應領域的不斷發展。這樣的思維范式或許是誕生在人工智能時代之前的稍顯過時的思維模式。
例如舍恩伯格等在《大數據時代:生活、工作與思維的大變革》一書中就提出,大數據技術引發思維變革;應更為關注事務之間的相關關系,而不是探索因果關系1。或許隨著科技和社會的發展,未來會演化出新的思維范式,但目前這仍然是我們最成熟、最具共識、最可信賴的思維模式,我們仍然需要能夠對重要問題的決策作出解釋。
由此,許多國家和地區已經開始探索在一些法規中對此予以一定的回應。IEEE、ACM等行業協會和計算機科學家們也在積極行動,以期促進算法的可解釋性。
例如,IEEE協會2016年的關于人工智能及自動化系統的倫理設計白皮書中,在多個部分都提出了對人工智能和自動化系統應有解釋能力的要求。
美國計算機協會美國公共政策委員會也在2017年初發布了《關于算法透明性和可問責性的聲明》(Statement on Algorithmic Transparency and Accountability),提出了七項基本原則,其中之一即為“解釋:鼓勵使用算法決策的系統和機構對算法過程和特定決策提供解釋。這在公共政策中尤為重要”。
2017年10月,美國加州大學伯克利分校的研究者們發布了《對人工智能系統挑戰的伯克利觀點》2一文,從人工智能的發展趨勢出發,總結了九項挑戰和研究方向,其中一項即為“可解釋的決策”。
該文中特別指出,在一些領域,人們希望知道人工智能程序的特定輸入所具有的哪些性質導致了特定的輸出結果。
例如,人們可能希望知道,一個X光片中的哪些特征(例如大小、顏色、位置、形式等),導致了特定的診斷結果,以及這些特征的小擾動會使診斷結果發生怎樣的變化;還有哪些類型的輸入會導致類似的診斷結果,等等。
人工智能的算法黑箱并不會比自然現象更難以分析
▲機器學習是人工智能的一種途徑或子集,它強調“學習”而不是計算機程序,一個系統可以從自身的錯誤中學習來提高它的模式識別能力。
這些看法認為增強人工智能算法的可解釋性具有積極意義,但是,增強可解釋性是否是可能的呢?
誠然,以深度學習為代表的人工智能算法經常被描述成一個無人理解的黑箱。但正如萊西格(Lawrence Lessig)教授在其經典著作《Code 2.0:網絡空間中的法律》中所反復強調的,當前技術本身是怎樣,并不等同于技術必須是怎樣。實際上人工智能算法的輸出仍然是由數據和代碼決定的,并不會比自然現象更難以分析和解釋,更何況其設計者還可以通過一些機制從內部增強其可解釋性。
一方面,人們可以研究如何更好地從觀察的角度來解釋人工智能算法。我們至少可以將人工智能算法作為一個客觀事物來進行觀察、實驗和分析。
例如,我們可以通過觀察算法對于不同輸入所產生的輸出,來嘗試了解其規律。更進一步地,對于比較復雜的人工智能算法系統,人們也可以通過搭建一套自動測試分析系統來進行輔助分析。
其實法學界就有研究者進行過初步的相關研究。例如,新加坡國立大學法學院的Seng Kiat Boon教授在斯坦福大學學習期間做了一個有意思的研究工作,針對網絡上侵犯知識產權內容的“通知-刪除”規則的自動處理系統進行了分析。
在現在的技術背景下,很多知識產權人及各類維權代理機構會借助一定的技術手段,讓軟件自動檢測網絡上的侵權內容,并自動向網絡平臺發送發現侵權內容、要求刪除的通知;面對每天接收到的大量侵權通知,很多平臺已經從主要依靠人工受理轉變為利用算法來自動處理。
Seng教授采用一些基本的技術方法,從網上資源庫中收集和分析了超過50萬個“通知-刪除”實例,來剖析谷歌等平臺的“通知-刪除”自動處理系統的特性3。當然,這個例子中只是運用了簡單的技術手段,但相信未來的一個方向是,人們可以用信息技術來解析信息技術,用算法來輔助理解算法。
在這一方面,除了系統設計者自身,社會上的相關用戶、研究者以及新聞記者都可能進行相關分析研究。分析能力和分析條件的提高也將是問題研究、社會監督的重要支撐。
另一方面,可以研究如何更好地設計兼顧可解釋性的算法和系統。在傳統軟件錯誤檢測實踐方面,軟件工程師們可能通過在算法中加入特定調試語句來記錄調試信息,或者在編譯程序時編譯為調試模式,幫助自己或其他軟件工程師理解程序代碼執行的情況、各個關鍵變量的變化情況,等等,從而幫助定位算法錯誤。很多計算機硬件也提供一定的調試支持。
在設計人工智能算法和系統時,也同樣可以加入一些增強可解釋性的模塊,并利用人工或機器輔助來進行解釋。《對人工智能系統挑戰的伯克利觀點》一文中,加州伯克利大學的研究者們就提出,支持可解釋決策的一個要素是人工智能系統能夠記錄和忠實重現導致特定決策結果的計算過程。
由此,應該來研究能夠支持交互式診斷分析的人工智能系統,忠實重現過去的執行情況,幫助確定輸入中的哪些特征導致了特定結果,并在可能的情況下為因果推理提供系統支持。
當然,這樣的方式可能導致算法運行速度的降低,甚至一些輔助機制可能影響算法的精確度。因此,研究者們需要在這一領域深耕細作,不斷提出在可解釋性和算法效率等方面均令人滿意的方案。
此外,亦有學者建議,將關鍵決策過程中使用的人工智能算法開源,并公開相關數據。這無疑是增加透明性和可解釋性的一種途徑,但并不是增強算法可解釋性的徹底解決方案,也涉及許多其他問題。
一方面,這可能涉及企業的商業秘密、個人隱私等問題,并不適用于全部場景;另一方面,代碼和數據開放本身并不意味著就滿足了社會對于算法可解釋性的需求。
我們可以看到,很多擁有數據和代碼的企業都無法直接對自己的算法做出充分解釋。在兼顧可解釋性的算法和系統設計以及配套解釋方法和工具方面,仍然需要深入研究。
多種途徑加強對可解釋性的研究和推廣
那么,我們可以如何來促進支撐算法可解釋性的相關研究呢?
研究者的興趣自然是一項重要動力。除此之外,政府的鼓勵和支持、行業的倫理和規范、市場的需求以及相關知識產權帶來的激勵、法律法規的要求等,都可能成為激勵算法可解釋性相關研究的措施。
如果我們把目光投向軟件正確性驗證及安全性保障領域,可以看到,盡管有研究興趣、一定的市場需求和知識產權的激勵,而且在測試方法等方面確實不斷有新的研究,但相應的研究開展程度遠不及信息技術的其他很多領域。
一方面這可能由于問題本身的困難性,另一方面也反映出僅憑研究興趣和簡單的市場和知識產權激勵,并不足以推動其充分發展。對于消費類軟件的錯誤、漏洞,人們已司空見慣;時不時的系統崩潰,大家也都習以為常。
可是,消費類軟件中的錯誤或許并不會引起過多的問題和嚴重損害,但在當前及未來的一些關鍵領域和情境下,人工智能系統卻可能影響人的基本權利、自由和生命安全。
由此,在既有激勵的基礎上,我們有必要通過行業的倫理規范和標準、政府的鼓勵和支持、適當的法律責任分配以及監管機制等多種途徑,來加強對人工智能算法可解釋性的研究和應用推廣。
算法的可解釋性是我們更好地掌握和控制人工智能的基礎。美國華盛頓大學法學院的Ryan Calo曾提出,跨學科實用主義的傳統或許是網絡法最偉大的遺產4。
在信息技術高速發展的今天,法律和政策研究者除了將目光投向其宏觀特性,也應該對相應的變化有所了解,并進行積極影響,使其更好地服務于我們的社會,推進人類追求的美好價值的實現。
Luke Dormehl在《算法時代》中將算法比喻成船只。“船只的發明同時帶來了海難??但算法同時也發揮了極其重要的作用,幫助我們在每天產生的多達2.5艾字節(是人腦信息儲存量的100萬倍)的數據海洋中航行,并得出切實可行的結論。”Sara Baase教授在《火的禮物:人類與計算技術的終極博弈》一書中將計算技術比作火。
火“使我們的生活更加舒適、健康和愉快。而它同時也擁有巨大的破壞力,有可能因為意外,也可能是故意縱火??漸漸地,我們已經學會如何高效地使用它,如何安全地使用它,以及如何更有效地應對災難,無論是自然的、意外的,亦或是故意造成的。”期待通過共同努力,我們可以更好地掌握人工智能算法,來幫助我們解決各種難題,建設更加美好的社會。
1.[英] 維克托·邁爾-舍恩伯格、肯尼思·庫克耶: 《大數據時代: 生活、工作與思維的大變革》,盛楊燕、周濤譯,浙江人民出版社2012 年版。
2.Ion Stoica, etc., “A Berkeley View of Systems Challenges for AI”, Technical Report No. UCB/EECS-2017-159, http://www2.eecs.berkeley.edu/Pubs/TechRpts/2017/EECS-2017-159.html, October 16, 2017.
3.參見Seng, Daniel Kiat Boon, 'Who Watches the Watchmen?' An Empirical Analysis of Errors in DMCA Takedown Notices (January 23, 2015). Available at SSRN: https://ssrn.com/abstract=2563202. Seng, Daniel Kiat Boon, The State of the Discordant Union: An Empirical Analysis of DMCA Takedown Notices (Jan 31, 2014). 18 Va. J. L. & Tech. 369 (2014).
4.Ryan Calo, “Robotics and the Lessons of Cyberlaw”. California Law Review, Vol. 103, No. 3, pp. 513-63 (2015)