圍繞這兩大要素,草案給出了“可信賴人工智能”的框架。草案強調,其目的不是給出另一套人工智能的價值和原則列表,而在于為人工智能系統提供具體實施和操作層面的指導。
草案共37頁,第一章通過闡述人工智能應該遵守的基本權利、原則和價值觀,試圖確保人工智能的道德目的。根據第一章所闡述的原則,第二章給出了實現“可信賴人工智能”的準則和詳細要求,既涉及道德目的,也涉及技術穩健性,既有技術層面的要求,也有非技術層面的要求。第三章則為“可信賴人工智能”提供了一張具體但非窮盡的評估列表。
草案指出,其提出的準則并非旨在取代任何形式的政策和規章,同時,這些準則應該被視為活文件,需要定期更新以適應技術發展的需求。
草案的一大亮點在于其特辟一個章節討論人工智能所引發的爭議性問題。這些問題引起了歐盟人工智能高級別專家組的激烈討論且尚未在組內達成一致意見。
位于列表第一的爭議性問題是“未經知情同意的識別”。有跡象表明利用人臉識別對公民進行監控的情況開始在歐洲出現。不久前,英國警方宣布,他們正在倫敦對圣誕節的購物者們進行人臉識別的測試。人工智能中的人臉識別等技術使得公共或私人組織能夠有效的識別個人。草案認為,“為了維護歐洲公民的自主權,人工智能的這一使用需要得到適當的控制”。具體而言,區分個體識別與個體跟蹤、目標監視與大規模監視對于實現“可信賴人工智能”至關重要。
另一個專家組熱議的話題是“隱蔽的人工智能系統”。發展人工智能的其中一種目標是建立像人一樣的系統,但越來越像人的人工智能系統卻會給人類帶來了困擾。草案認為,一個人必須總是知道他是在與人類還是機器進行交流,這一點也應是AI開發和管理人員的職責。專家組提出,人們“應當牢記,人與機器之間的混淆會產生多種后果,比如依戀、影響或降低作為人的價值。因此,人形機器人和機器人的發展應經過仔細的道德評估。”
“致命自主武器系統”也是專家組重要關切之一。草案稱,目前有數量未知的國家正在研發自主武器系統。這些武器系統中有能夠選擇性瞄準的導彈,還有具認知能力、可在無人為干預的情況下決定作戰對象、時間和地點的學習機器等。專家組認為這會引起不可控的軍備競賽。
對于以上這些爭議話題,草案給出了一個關鍵性指導準則。首先是AI的開發、部署和使用應以人為中心,須反應公民的福利、無害、人類自主、爭議和可解釋性等社會價值觀和道德原則。其次是評估AI對人類及其共同利益的可能影響,尤其需要注意兒童、殘障人士和少數群體等弱勢群體的情況。第三是人們需要承認并意識到人工智能在為個人和社會帶來實質性好處的同時也可能產生負面影響,人們需要“對嚴重關切的領域保持警惕”。
目前,草案處于征集意見階段,征集時間將于2019年1月18日截止。據悉,該草案將于2019年3月提交到歐盟委員會。
歐盟人工智能高級別專家組于2018年4月由歐盟委員會任命,組內有52位代表學術界、工業界和民間社會的獨立專家。該專家組的主要職責是撰寫人工智能道德準則并為歐盟提供政策和投資建議。