《經濟學人》曾表示,美國和中國已經是毋庸置疑的AI超級體,而歐洲可以率先制定規則來限制AI系統可能造成的危害。許多人希望歐洲能建立AI行業的全球標準,就像其建立的新數據隱私法GDPR一樣。
七大條件
歐盟在技術監管方面占據全球領先地位,去年引入了具有里程碑意義的數據隱私法GDPR,同時瞄準大型科技公司的反壟斷行為以及避稅問題,而目前人工智能的道德準則是歐盟最新的監管方向。
歐盟召集了52名專家組成的小組,提出了他們認為未來AI系統應該滿足的七大條件:
受人類監管:AI不能侵犯人類的自主性。人類不應該被AI系統操縱或威脅,人類應該能夠干預或監督AI的每一項決定。
技術的穩健性和安全性:AI應該是安全和準確的。它不應該輕易受外部攻擊的影響,它應該非??煽?。
隱私和數據管理:AI收集的個人數據應該是安全的、私有的。它不應該讓任何人接觸,也不應該輕易被盜。
透明度:用于創建AI系統的數據和算法應該是可訪問的,應確保AI決策的可追溯性。換句話說,運營商應該能夠解釋他們的AI系統是如何做出決策的。
多樣性、非歧視性和公平性:人工智能提供的服務應面向所有人,無論年齡、性別、種族或其他特征。同樣,系統不應該有任何偏向。
社會和環境福祉:人工智能系統應該是可持續的(即它們應該對生態負責)并“促進積極的社會變革”。
問責制:應建立機制,確保對AI系統及其成果負責和問責。
目前這些要求不具有法律約束力,但它們可能對歐盟未來起草的所有法律造成影響。歐盟希望成為AI倫理領域的領導者,并通過《通用數據保護條例》(GDPR)表明,愿意制定影響深遠的法律,以保護公眾的數字權利。
今年夏天,歐盟委員會將與相關方合作,確定可能需要額外指導的領域,并確定如何更好地執行和核查。2020年初,專家組將納入試點階段的反饋意見。
AI倫理探索
最早關于機器人的倫理規定是科幻作家阿西莫夫上世紀設計的防止機器人失控的“機器人三定律”:機器人不能傷害人類;它們必須服從于人類;它們必須保護自己。后來還加入了“第零定律”:機器人不得傷害人類整體,不得因不作為使人類整體受到傷害。
但是隨著人工智能不斷發展,“機器人三定律”中的許多問題都有待進一步細化。
全球知名的艾倫人工智能研究所首席執行官埃齊奧尼,兩年前在一次演講中呼吁更新“機器人三定律”。他還提出,人工智能系統必須遵守適用于其操作人員的所有法律條文;人工智能系統必須明確表示它不是人類;未經信息來源明確許可,人工智能系統不能保留或披露機密信息等。
在過去的兩年時間里,有大量的AI研究人員開啟對AI倫理的思索。
2016年9月,Amazon、Facebook、Google、DeepMind、Microsoft和IBM等幾家全球大公司共同成立了PartnershiponAI,研究和制定人工智能技術的最佳實踐,促進公眾對人工智能的理解,并作為一個開放平臺來討論人工智能對人和社會的影響。
2017年7月,中國政府發布《新一代人工智能發展規劃》時就指出,建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力
去年年底,加拿大和法國聯合成立了一個國際小組,討論如何負責任地使用人工智能。
目前,在國家層面上關于AI的規則制定并不平衡,有的國家已經優先制定了機器人和人工智能的規則,甚至還通過立法來管理自動駕駛汽車,但大多數國家還沒有著手去做。
歐盟委員會指出,技術、數據和算法不分國界,為此,其將繼續加強同日本、加拿大以及新加坡等志同道合國家的合作,并繼續在包括七國集團(G7)和G20在內的國際場合討論和倡議中發揮積極作用。
IBM歐洲主席頁特(Martin Jetter)對此表示,歐盟委員會此次出臺的指導方針“為推動AI的道德和責任制定了全球標準”。
執行摘要
人工智能是這個時代最具變革性的力量之一,它可以為個人和社會帶來巨大利益,但同時也會帶來某些風險。而這些風險應該得到妥善管理??偟膩碚f,AI帶來的收益大于風險。我們必須遵循“最大化AI的收益并將其帶來的風險降到最低”的原則。為了確保不偏離這一方向,我們需要制定一個以人為中心的AI發展方向,時刻銘記AI的發展并不是為了發展其本身,最終目標應該是為人類謀福祉。因此,“可信賴AI”(Trustworthy AI)將成為我們的指路明燈。只有信賴這項技術,人類才能夠安心地從AI中全面獲益。
“可信賴AI”由兩部分組成:1)它應該尊重基本權利、相關法規、核心原則及價值觀,確保其目的合乎倫理道德;2)它使用的技術應該非常穩健、可靠,因為即使是出于好意,如果沒有成熟技術的加持,技術也會帶來意想不到的傷害。這些指導原則構成了”可信賴AI”的基本框架:
“可信賴AI”框架
Chapter I:確保人工智能的目的合乎道德,規定了人工智能發展應該遵守的基本權利、原則和價值觀。
Chapter II:關于實現”可信賴AI”的指導原則,同時強調AI發展目的的道德性和技術穩健性。這部分列出了”可信賴AI”的要求,以及實現這些要求所需的技術和非技術方法。
Chapter III:提供”可信賴AI”的具體但非詳盡的評估列表實施要求。該列表將根據具體的用例進行調整。
與其他有關AI倫理道德的文件相比,這份準則的目的不是為AI增加一份核心價值觀和原則清單,而是為AI系統的具體實施和操作提供指導。
該準則面向開發、部署或使用AI的所有利益攸關方,包括公司、組織、研究人員、公共服務單位、機構、個人或其他實體。該準則的最終版將提出一種機制,是否認可這些這些準則將由利益攸關方自行決定。
需要指出的是,制定這些準則并不是為了替代任何形式的決策或監管,也不是為了阻止其出臺。這份準則應該不斷更新,以適應技術和知識發展的要求。
“可信賴AI”的實現
這一部分為”可信賴AI”的實施和實現提供了指導,指出實現”可信賴AI”有哪些要求,在發展、部署、使用AI的過程中有哪些方法可以滿足這些要求,從而充分利用由AI創造的機遇。
1.“可信賴AI”的要求
實現”可信賴AI”意味著需要在AI系統和應用的具體要求中加入一般、抽象的原則。以下是從Chapter I的權利、原則和價值觀中衍生出的十條要求。這十條要求同樣重要,但實施過程中需要考慮不同應用領域和行業的具體背景。
問責機制
數據治理
為所有人設計
人工智能自治的治理(人的監督)
非歧視
尊重(增強)人類自主性
尊重隱私
穩健性
安全
透明
《準則》還對每一項要求進行了進一步解釋。例如,在「問責機制」這項要求中,《準則》指出,問責機制的選擇可能非常多樣,從金錢補償到過失調查,再到沒有金錢補償的和解。如一個系統誤讀了藥品報銷申請,錯誤地決定不予報銷,系統所有者可能會被要求做出金錢補償。其他要求的詳細內容請參考原文。
這一清單按字母順序對要求進行排序,以表明所有要求同等重要。Chapter III還提供了一份評估清單,以支持這些要求的實施。
2.實現“可信賴AI”的技術和非技術方法
為了滿足上一節中提到的要求,開發過程的所有層面(包括分析、設計、開發和使用)都可以采用技術和非技術方法(參見圖3)。對實施這些要求和方法的評估,以及對流程變化的報告和論證應該持續進行。事實上,考慮到AI系統不斷發展,以及在動態環境中運行,實現“可信賴AI”可以看作一個持續的過程。
雖然這份準則中的方法列表并不詳盡,但它旨在列出實施“可信賴AI”的主要方法。為了提高AI系統的可信度,這些方法應該基于第一章中定義的權利和原則。
圖3顯示了權利、原則和價值觀對系統開發過程的影響。這些抽象的原則和權利被具體化為對AI系統的要求,該系統的實施和實現要由不同的技術和非技術方法支持。此外,考慮到AI技術的適應性和動態性,繼續堅持原則和價值觀要求將評估(evaluation)和論證(justification)流程作為開發流程的核心。