人工智能本質上是一種建立在大數據基礎上的自我學習、判斷和決策的算法,其在類案類判、智慧檢務建設等司法系統的“技術革命”中起著重要作用。美國還將算法模型應用到量刑、保釋、假釋等決策中,引發社會廣泛關注。例如,康斯威星州State v. Loomis案件中,被告認為州法院使用Compas算法模型量刑違反了正當程序原則,其決策的準確性、透明性都有待檢討,遂向州最高法院上訴。在科技革命撲面而來的當下,人工智能技術在法律檢索、風險評估等法治進程中的應用需要認真對待。
一、美麗的誤解:算法默認是公平的
建立在算法模型基礎上的人工智能給社會生活帶來巨大便利,如網絡約車、區塊鏈、互聯網金融等帶來了社會進步,但其潛在的弊端不容忽視。2016年哈佛大學肯尼迪學院發布的分析報告指出,目前針對犯罪傾向性預測的人工智能系統,無論技術人員如何調整機器學習的策略和算法,人種和膚色都成為無法抹去的高優先識別變量。那么看似技術中立的算法為什么會產生歧視?
算法本質是互聯網的編程技術,但這種編程技術絕非中立。谷歌公司的數碼相冊軟件將深色皮膚的人標記為大猩猩,展示了科技錯誤如何轉變成傷害,進而導致社會不安與仇恨。正如這里所示,算法歧視在很多情況下是難以預料的、無意識的副產品,而非編程人員有意識的選擇,更增加了識別問題根源或者解決問題的難度。那么算法歧視是如何出現的?首先,算法結果建立在其所使用的基礎數據之上,基礎數據的不完善將直接影響算法輸出的科學性。數據本應是社會現實的反映,但如果編程數據本身不正確、不完整或過時,輸出的結果則會以偏概全。我國的裁判文書上網制度有待完善,各省關于類案類判制度的試點也還存在“數據孤島”等“先天不足”,這不可避免地會損害算法輸出結果的公平性。其次,算法的設計、目的、成功標準、數據使用體現了設計者、開發者的主觀選擇,他們可能將自己的偏見嵌入算法系統,這導致算法繼承了人類決策者的種種偏見。第三,算法決策是在用過去預測未來,而過去的歧視可能會在算法中得到鞏固并在未來得到加強,因為錯誤輸入形成的錯誤輸出作為反饋,將進一步加深錯誤。第四,算法決策不僅會將過去的歧視做法代碼化,而且會創造自己的現實,形成一個“自我實現的歧視性反饋循環”。
二、算法歧視的治理難點
人工智能的算法決策具有典型的“黑箱”特點,連設計者可能都不知道算法如何決策,要在系統中發現有沒有存在歧視和歧視根源,在技術上非常困難。如果按照現有的法律責任規則,由于系統的自主學習、決策能力很強,它的開發者無法預測最終將輸出什么結果,那么黑箱的存在難以查找事故原因,將不可避免地產生責任鴻溝。除了如何通過設計確保算法和人工智能系統的公平性外,算法的治理難點還有以下方面。
首先,法律工具主義思維盛行。工具主義是指將各種科技成果視為解決人類問題、增強人類能力的工具,其在法律領域是實用主義法律觀的體現。電腦量刑、類案類判輸出的結果之所以往往為民眾質疑,是因為只講手段不問目的的工具主義割裂了法律和道德的關系,導致輸出結果無法取得社會認同。工具理性取代價值理性的弊端在現代化早期已經暴露無遺了,技術本身并不是目的,也無法自動形成自己的目的。
其次,算法的透明性問題難以公開。算法的輸出是“黑箱”過程,即便人工智能最終的應用出現嚴重后果,算法的過程也無從得知。人們無法判斷損害到底如何造成、更不清楚算法本身是如何編寫的。對于掌握先進科技的企業而言,算法往往屬于企業的“商業秘密”,是受到法律名正言順保護的“黑箱”。當利用犯罪風險評估軟件對犯罪嫌疑人進行評估時,決定司法判決結果的就不再是規則,而是代碼。而編程人員將既定規則寫進代碼時,不可避免地會對這些規則進行調整,但公眾、官員以及法官并不知曉,無從審查嵌入到自主決策系統中的規則的透明性、可責性以及準確性。在缺乏必要的問責機制的情況下,無法矯正的算法歧視對刑事司法是一種嘲諷。
第三,運用法律規制算法歧視在操作層面還需考慮以下方面:第一,公平可以量化、形式化嗎?如何被翻譯成操作性的算法?第二,公平被量化為計算問題會帶來風險嗎?第三,如果公平是機器學習和人工智能的目標,誰來決定公平的考量因素?第四,如何讓算法、機器學習、人工智能具有公平理念,自主意識到數據挖掘和處理中的歧視問題?
三、通向公正的算法規制
法律只有能夠以直觀、明確的方式對人工智能的決策進行追蹤,才能夠保證人工智能在合法軌道上運行。如果算法繼續保持神秘并且人工智能公司的重心始終圍繞利潤而非公正與平等,那么人工智能將很難取得公眾對其在司法應用中的信任。發展人工智能為了促進社會進步,法治公正需要考慮技術革新和權力結構變化所帶來的新問題。2016年英國下議院科學和技術委員會發布《機器人與人工智能》,特別強調決策系統透明化對于人工智能安全和管控的作用。世界科學知識與技術倫理委員會(COMEST)也發布關于機器人倫理的初步草案報告,提出應當在機器人及機器人技術的倫理與法律監管中確立可追溯性,保證機器人的行為及決策全程處于監管之下。
首先,對人工智能的法律治理中,必須確立可追溯性原則,才能讓機器人行為決策全程處于監管之下。如此一來,人類的監管機構不僅能夠理解智能機器人的思考決策過程以及作出必要的修正,而且能夠在特定的調查和法律行動中發揮其本應有的作用。只有保證人類能夠全面追蹤機器人思考及決策的過程,我們才有可能在監管機器人的過程中占據主動權,或者在出現問題的時候進行全面的追蹤調查。其次,立法應將透明、公開、程序合法、說明理由等義務賦予人工智能研發機構,使算法等技術化的監控和決策手段不再是無法被問責的“黑箱”,同時構建技術公平行業規范,通過設計保障公平的實現,通過技術正當程序來加強自主決策系統中的透明性、可責性以及被寫進代碼中的規則的準確性。例如,谷歌大腦團隊公布了“可解釋性的基礎構件”的研究成果,將算法比喻成“人工神經網絡的核磁共振成像”,這種開源化處理使得其他技術人員能夠在此基礎上編寫適用于不同算法和場景的解釋性算法。第三,需要加強法律和技術的融合發展,確保法律人員能夠理解、掌握算法的原理和應用。法律規制算法不能僅依靠立法者和規制者的單方面努力,而需要法律人與技術人員的合作。通過法律人向技術人員解釋法律規則的要求,技術人員根據要求設計出符合法律要求的算法——法律技術工程師這一職業正在悄然興起。
人工智能方興未艾之際,法律應正視并矯正算法歧視,促進人工智能健康、合法地發展。大數據、算法以及人工智能的應用與人的命運息息相關,但大數據資源被壟斷掌握、算法歧視不透明將導致不公正。人工智能的法治之路必須體現憲法所保障的個人的基本權利,以及公開、透明等程序性基本要求。法律必須確保算法的可追溯性,賦予人工智能技術研發者程序可解釋性的義務,通過強化法律人員和技術人員的互動融合實現算法公正。