人工智能不僅是一個技術(shù)問題,也是一道治理考題。以無人駕駛技術(shù)為例,在全球范圍內(nèi)已出現(xiàn)多起事故,甚至造成人員傷亡,然而,並沒有法律對此作出明確規(guī)定。當(dāng)人們向算法讓渡了部分決策權(quán),也會讓歸責(zé)成為難題。在這個意義上,技術(shù)進步是一柄“雙刃劍”,一方面可以造福人類,另一方面在缺乏規(guī)范和制約的情況下,也有可能損害社會公共利益。處理好人工智能在法律、安全等方面提出的新課題,需要完善治理,讓技術(shù)創(chuàng)新運行在制度的軌道上。
事實上,如何對人工智能進行規(guī)范,在世界范圍內(nèi)還未形成共識。在不少國家,無人駕駛領(lǐng)域的立法一直在討論中,看法不一﹔在中國,無人駕駛的汽車能否上路、是否符合道路交通安全法,也引發(fā)了一系列討論。歐盟最新發(fā)布的《通用數(shù)據(jù)保護條例》中,也沒能對人工智能涉及的隱私風(fēng)險、數(shù)據(jù)保護風(fēng)險做出符合大眾期待的回應(yīng)。每當(dāng)一種新技術(shù)出現(xiàn),都會有關(guān)於舊的治理規(guī)則是否適用、是否需要升級,以及是否需要制定新的治理規(guī)則的討論。面對日新月異的人工智能技術(shù)及其引發(fā)的問題,如何用法律條文探尋最佳應(yīng)對方案、凝聚對未來的共識,是一項艱巨挑戰(zhàn)。
完善與人工智能相關(guān)的法律法規(guī),關(guān)鍵在於明確歸責(zé)原則:一旦問題出現(xiàn),哪些是人的責(zé)任,哪些是算法的責(zé)任?歸責(zé)原則實際上就是對算法做出評價,而算法本身並不透明,如何對其進行評估?對此有三種解決方案:不用算法,使算法透明,審查算法輸出。完全避免算法不現(xiàn)實,除了算法,幾乎沒有其他工具可以處理大量的數(shù)據(jù)。而算法透明化則難以操作,這相當(dāng)於要求普通人也能理解算法。因此,審查算法輸出是目前的最佳方案。這一方案的要義在於,不管算法的內(nèi)在工作機制,隻根據(jù)其結(jié)果的公正性對其進行評價。在此方案下,監(jiān)管成本更低,可操作性更強,歸責(zé)原則的確定也更明確,具有立法實踐的意義。
面對科技的迅速發(fā)展,我們始終在探索人工智能的法律解決方案和治理模式,致力於形成一套務(wù)實管用、行之有效的方法。比如,相關(guān)部門對人工智能領(lǐng)域的新應(yīng)用、新嘗試給予足夠的創(chuàng)新空間,但必要的監(jiān)管同樣不可或缺﹔一旦發(fā)現(xiàn)安全問題、突出風(fēng)險,監(jiān)管力量會及時介入,甚至採取多部門聯(lián)合調(diào)查處理的方式封堵隱患、解決問題。這樣的模式,既呵護了創(chuàng)新,也有利於防范系統(tǒng)性風(fēng)險,為人工智能健康發(fā)展提供了保障。
人工智能的治理問題是當(dāng)前一項重大挑戰(zhàn),世界各國和國際組織都參與其中,這也讓人工智能的治理成為全球治理的一部分。如果此時缺位,可能會在新一輪規(guī)則制定中陷入被動。如今,中國在人工智能領(lǐng)域的技術(shù)探索已處於世界前列,有些部分甚至進入了“無人區(qū)”。創(chuàng)新先行,治理必須跟上,如此才能充分享受創(chuàng)新帶來的紅利,撬動發(fā)展的未來。