該準則由歐盟人工智能高級別專家組起草,列出了“可信賴人工智能”的7個關鍵條件——人的能動性和監督能力、安全性、隱私數據管理、透明度、包容性、社會福祉、問責機制,以確保人工智能足夠安全可靠。歐盟將“人工智能”定義為“顯示智能行為的系統”,它可以分析環境,并行使一定的自主權來執行任務。
根據官方解釋,“可信賴的人工智能”有兩個必要的組成部分:一是應尊重基本人權、規章制度、核心原則及價值觀;二是應在技術上安全可靠,避免因技術不足而造成無意的傷害。舉例來說,如果人工智能在未來診斷出一個人患有某種病癥,歐盟的準則可以確保系統不會做出基于患者種族或性別的偏見診斷,也不會無視人類醫生的反對意見,患者可以自行選擇獲得對診斷結果的解釋。
歐盟數字經濟和社會專員瑪利亞·加布里爾表示,算法做出的任何決定都必須經過驗證和解釋。當保險公司的系統拒絕了一次索賠后,客戶應當能詳細地知曉緣由。加布里爾還強調,還需要確保人工智能系統的公平。如果招聘系統使用的算法是由一家僅雇用男性員工的公司數據生成的,其算法就可能會篩除女性應聘者,“這樣帶有偏見的數據輸入將會帶來倫理困境”。
對于這份準則,歐委會副主席兼歐盟單一數字市場戰略副總裁安德魯斯·安西普表示:“符合倫理標準的人工智能將帶來雙贏,可以成為歐洲的競爭優勢,歐洲可以成為人們信任的、以人為本的人工智能領導者。”
歐盟此舉也受到一些質疑。非營利組織“算法觀察”聯合創始人馬蒂亞斯·斯皮爾坎普認為,盡管制定準則是一個好主意,但準則圍繞的核心——“可信賴人工智能”這一概念的定義尚不明確,且目前還不清楚未來的監管如何實施;還有業內人士擔心,準則過分細化會使許多公司尤其是中小型企業難以操作;此外,參與了準則起草工作的德國美因茨大學哲學教授托馬斯·梅辛格對于歐盟沒有禁止使用人工智能開發武器表示批評。