據外媒報道,歐盟委員會(European Commission)周一公布了人工智能道德準則,旨在在人工智能系統深入社會之前影響其發展。這種干預可能有助于打破監管機構被迫追趕新興技術的模式,而這些技術往往會帶來意想不到的負面后果。
人工智能吸引了公眾的想象力,并對潛在的濫用發出了可怕的警告,這是歐盟最新的監管領域。歐盟委員會制定了指導人工智能發展和建立信任的7項原則。雖然這些指導方針沒有約束力,但它們可能成為未來幾年進一步行動的基礎。
在這份人工智能道德準則中,透明度和避免歧視是最為核心的部分。
歐洲負責數字經濟的最高官員瑪麗亞-加布里爾(Mariya Gabriel)表示,使用人工智能系統的公司應該對公眾透明。加布里埃爾說:“當人們接觸的是一種算法而不是另一個人的時候,他們需要被告知”,“算法做出的任何決定都必須經過驗證和解釋”。
歐盟委員會表示,未來的人工智能系統需要在整個生命周期內安全可靠。它還表示,數據保護必須是一個優先事項,用戶必須可以控制自己的信息。這項規則指引將責任完全推給了那些構建和部署人工智能系統的人。
Gabriel還表示,公司需要確保他們的人工智能系統是公平的。她舉例說,在招聘過程中使用的一種算法使用的數據來自一家只聘用男性的公司,這種算法可能會拒絕女性候選人。加布里埃爾說:“如果你的輸入數據有偏差,那就真的是個問題。”
非營利性組織AlgorithmWatch表示,雖然制定指導方針是個好主意,但歐洲的做法存在問題。該組織的聯合創始人馬蒂亞斯-斯皮爾坎普(Matthias Spielkamp)表示:“指導方針圍繞著‘值得信賴的人工智能’這一概念,這是有問題的,因為它不是一個定義明確的術語。”
“誰值得信賴,誰又值得信賴?”他補充道。他還表示,目前還不清楚未來的監管將如何處理。
歐盟現在將嘗試與大型科技公司合作,通過一個試點項目來解決這些問題和其他問題。其實,在科技監管方面歐盟已走在全球前列,去年出臺了一項具有里程碑意義的數據隱私法,同時以反競爭行為和未繳稅款為由,對大型科技公司提起訴訟。