上周,2018中國(廣州)新一代人工智能發展戰略國際研討會暨高峰論壇在廣州舉辦,人工智能的法律與倫理問題也引發了與會專家的熱議。
AI能否擁有法律“人格”?
毫無疑問,引入人工智能有助于提升辦事效率,在司法領域輔助辦案也開始成為現實。
論壇上,科大訊飛醫療事業部副總裁陳德平介紹,科大訊飛聯合上海開展206工程項目,即“上海刑事案件智能輔助辦案系統”,與自動閱卷非常相似,通過機器學習全國最頂尖的法官判案的邏輯和標準,用大量的數據、案件“喂”它,讓它像人一樣能夠給出一個案件評判的標準、量刑的尺度,經過兩年多的探索,2018年3月份在上海全市正式開始試運行,不光是上海,目前山西、安徽、福建等地也開始嘗試將這套系統應用在輔助斷案上。
不過,AI在司法輔助辦案上可以擁有多大的“權力”?廣東省法學會網絡與電子商務法學研究會會長、暨南大學法學院黨委書記劉穎教授介紹,辦案過程中引入人工智能分析,可以輔助檢察官進行證據抓取、要素比對,還可以協助法官根據嫌疑人的成長經歷、犯罪記錄乃至其生活地區的犯罪率等數據,以判斷再犯罪的可能性。但這也會帶來一個疑慮:人工智能協助判案有沒有正當性?
他舉了一個例子:在美國威斯康辛州,一位罪犯申請減刑,陪審團利用人工智能手段,根據他個人的成長經歷、成長的社區的環境,做出判斷認定他有可能犯罪并不同意緩刑。罪犯馬上上訴,“機器是某一家公司生產的,這個公司也許在軟件的設計上對我一個有色人種持有偏見”,于是法庭要求公司公開算法,但被公司以商業秘密為由予以拒絕。
而另一方面,“無人售貨”正成為當下的一個熱點,自動售貨系統,包括柜員機、自動售貨機、平臺等制定的合同有沒有效?劉穎說,答案是肯定有效,但是其依據在哪里?人工智能機器只是設立機器的人的代表。2019年1月1日將實施的《電子商務法》明確規定,使用柜員機、自動售貨機、平臺等自動信息系統訂立或履行的合同對使用該系統的當事人有法律效力。
“民事主體有一個發展的過程,早期被限于自由民,奴隸則被當成客體;但隨著社會的進步,所有生物意義上的人都成為了民事主體。后來,民事主體還包括了擬制的法人。那么為什么人工智能不可能在一定程度上擁有‘人格’呢?”劉穎說,如果人工智能具有完全的自主性,能夠承擔責任,法律就有可能賦予它法律人格。
AI或將引發產權、數據安全等糾紛
在劉穎看來,一旦法律賦予人工智能以法律人格,這又可能會對當前的人格法、刑事責任制度、知識產權、侵犯責任或勞動法律制度,產生一系列的連鎖反應。
2017年5月,微軟和湛廬文化合作推出了小冰原創詩集《陽光失了玻璃窗》,這是人類歷史上第一部100%由人工智能創造的詩集,也由此引發了學者的討論:對于人工智能生成的內容,法律有沒有可能賦予它知識產權?
“現在人工智能不僅可以寫詩,還可以生產新聞、畫畫、創作音樂。我仔細看了微軟小冰機器人寫的詩集,還是不錯的,它通過圖像識別可以做到看圖說話,比如它看到了沙漠,沙漠中有太陽,它可能就聯想到‘大漠孤煙直’,就可以寫出一段文字。”騰訊研究院法律研究中心副主任、首席研究員蔡雄山說,知識產權的歸屬也就成為一個難題:我創造了一個軟件,寫了很多詩,當我把這個軟件賣了,它又出很多本詩集,獲得的收益比軟件還值錢,這肯定會引起一些產權糾紛。
劉穎說,如果說人工智能是有法律主體資格的,那么以后要不要給工廠里進行勞動的機器人制定一個機器人勞動合同法?再進一步往下發展,人工智能是否要承擔刑事責任,作為刑事責任能力的主體?
此外,各大城市已經陸續發放路測牌,無人駕駛的汽車發生事故之后責任怎么判定?蔡雄山說,到L4級和L5級階段,不僅將實現完全的自動駕駛,而且汽車也將不再有方向盤,人也無法接管汽車,一旦出現責任事故誰來承擔刑事責任,是生產汽車的廠商還是智能系統廠商?
AI還將引發數據安全的問題。“在人工智能時代,數據已經成為像石油和天然氣一樣重要,但AI系統需要數據‘喂養’,如何保護個人數據并區分非個人數據?比如無人駕駛汽車行駛匯總的數據,哪些可以交易?廣東將建數據集群應用,如果數據產權不清晰,是否可以集中在一起?”蔡雄山說。
將社會倫理原則嵌入AI系統中
“在國外,關于人工智能倫理規范的文本已有不少,而中國還沒有成行的文本。”蔡雄山說,如何讓人工智能符合人類社會的各種規范和價值,最大化其好處,是構建普惠人工智能和有益人工智能必須解決的問題。
對此,他也提出了一些自己的建議,人工智能倫理應該遵循的一些基本原則:首先是自由原則,保障人的權利和自由,加強隱私保護,防止數據被濫用;其次是正義原則,確保算法決策的透明性,保障人工智能的權益在世界范圍內公平分配,縮小數字鴻溝;第三個是福祉原則,要促進可持續發展,避免軍備競賽,要應對人工智能帶來的就業影響等;第四是合倫理原則,把社會的倫理原則能夠嵌入到人工智能系統上,讓倫理設計和人類的規范相符合;此外還包括安全原則,保障安全,以及責任原則,應該探索人工智能應用的監管制度,保障安全,促進發展。
他山之石,可以攻玉。歐盟議會法律事務委員會也專門研究與機器人和人工智能發展相關的法律問題,早在2016年5月,該委員會提出了兩個建議,第一個是對機器人適用強制保險機制,這類似于針對機動車的強制險,由機器人的生產者或者所有者負責購買,以便對機器人造成的損害進行責任分配。其次是設立賠償基金;這一制度有兩大目的,其一,對強制險未予覆蓋的損害進行賠償,其二,讓投資人、生產者、消費者等多方主體參與這一機制,從而形成賠償基金。
針對人工智能可能造成的數字鴻溝擴大,來自韓國的數字智力商數研究所創始人樸宥顯博士認為,應該讓教育使孩子成為AI時代的主人,由此提出了“數商”的概念,她說,前兩次工業革命時代提出了IQ,以適應工廠自動化技術的需要,而在工業3.0時代,城市化的浪潮下需要人與人的交融,于是EQ應運而生,而進入工業4.0時代,還需要一個新的數商,通過教育幫助孩子面對新的風險。
“人工智能進入大眾視野,大家一定會記得阿西莫夫三大定律,用一句話來說就是,比人類更厲害的其實不是人工智能,而是掌握了人工智能的人類。”陳德平說。
延伸
各地關于AI倫理的
法律探討
聯合國 2016年8月,COMEST發布“機器人倫理初步報告草案”,機器人不僅需要尊重人類社會的倫理規范,而且需要將特定倫理準備嵌入機器人系統中。
英國 《機器人與人工智能》呼吁加強人工智能倫理研究,最大化人工智能的益處,并尋求最小化其潛在威脅的方法。
美國 《國家人工智能研發戰略計劃》提出開展人工智能倫理研究,研發新的方法來實現人工智能與人類社會的法律、倫理等規范和價值相一致。
IEEE(電氣和電子工程師協會) 《合倫理設計:利用人工智能和自主系統最大化人類福祉的愿景(第一版)》,鼓勵優先考慮倫理問題。
業界 2017年Asilomar會議提出人工智能23條原則,涉及人工智能倫理和價值,推動有益人工智能發展,其中提及,將人類規范和道德價值嵌入人工智能系統。
名詞解釋
阿西莫夫三大定律
科幻作家阿西莫夫于1942年首次明確提出“機器人三定律”。
第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;
第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;
第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。