精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

避免人工智能陷入信任危機:歐盟先發制人制定規則

責任編輯:zsheng |來源:企業網D1Net  2019-04-14 15:37:09 本文摘自:新浪科技

歐盟委員會(European Commission)周一公布了人工智能道德準則,旨在在人工智能系統深入社會之前影響其發展。這種干預可能有助于打破監管機構被迫追趕新興技術的模式,這些技術往往會帶來意想不到的負面后果。

周一,英國提出新規定,要求互聯網公司對清除其平臺上的有害內容承擔法律責任,凸顯了這么做的重要性。

“這就像在蓋房子之前先打好地基……”IBM負責歐洲監管事務的副總裁利亞姆-貝納姆(Liam Benham)說。

歐盟在科技監管方面已走在全球前列,去年出臺了一項具有里程碑意義的數據隱私法,同時以反競爭行為和未繳稅款為由,對大型科技公司提起訴訟。

人工智能吸引了公眾的想象力,并對潛在的濫用發出了可怕的警告,這是歐盟最新的監管領域。這不是一個簡單的話題。例如,谷歌上周關閉了其新成立的人工智能倫理委員會,原因是一群員工要求該組織的一個保守派智庫首領離開。

歐盟委員會制定了指導人工智能發展和建立信任的7項原則。雖然這些指導方針沒有約束力,但它們可能成為未來幾年進一步行動的基礎。

透明度是關鍵

歐洲負責數字經濟的最高官員瑪麗亞-加布里爾(Mariya Gabriel)表示,使用人工智能系統的公司應該對公眾透明。加布里埃爾說:“當人們接觸的是一種算法而不是另一個人的時候,他們需要被告知”,“算法做出的任何決定都必須經過驗證和解釋”。

例如,基于算法拒絕索賠的保險公司應該確保客戶知道如何以及為什么做出這個決定,人類應該能夠介入且可以推翻這個決定。

歐盟委員會表示,未來的人工智能系統需要在整個生命周期內安全可靠。它還表示,數據保護必須是一個優先事項,用戶必須可以控制自己的信息。這項規則指引將責任完全推給了那些構建和部署人工智能系統的人。

“如果一家公司安裝了人工智能系統,那么這家公司就有責任……如果發生任何意外,這是非常重要的,”蓋伯瑞爾說。

避免歧視

Gabriel還表示,公司需要確保他們的人工智能系統是公平的。她舉例說,在招聘過程中使用的一種算法使用的數據來自一家只聘用男性的公司,這種算法可能會拒絕女性候選人。加布里埃爾說:“如果你的輸入數據有偏差,那就真的是個問題。”

非營利性組織AlgorithmWatch表示,雖然制定指導方針是個好主意,但歐洲的做法存在問題。該組織的聯合創始人馬蒂亞斯-斯皮爾坎普(Matthias Spielkamp)表示:“指導方針圍繞著‘值得信賴的人工智能’這一概念,這是有問題的,因為它不是一個定義明確的術語。”

“誰值得信賴,誰又值得信賴?”他補充道。他還表示,目前還不清楚未來的監管將如何處理。

美因茨大學(University of Mainz)教授、哲學家托馬斯-梅辛格(Thomas Metzinger)幫助起草了指導方針,但批評他們沒有禁止使用人工智能開發武器。其他人則擔心這些指導方針會對創新產生影響。

行業組織TechUK副首席執行官安東尼-沃克(Antony Walker)表示:“我們擔心這些指導方針的力度,將使許多公司,尤其是中小型企業,難以實施。”

歐盟現在將嘗試與大型科技公司合作,通過一個試點項目來解決這些問題和其他問題。

關鍵字:規則歐盟智能

本文摘自:新浪科技

x 避免人工智能陷入信任危機:歐盟先發制人制定規則 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

避免人工智能陷入信任危機:歐盟先發制人制定規則

責任編輯:zsheng |來源:企業網D1Net  2019-04-14 15:37:09 本文摘自:新浪科技

歐盟委員會(European Commission)周一公布了人工智能道德準則,旨在在人工智能系統深入社會之前影響其發展。這種干預可能有助于打破監管機構被迫追趕新興技術的模式,這些技術往往會帶來意想不到的負面后果。

周一,英國提出新規定,要求互聯網公司對清除其平臺上的有害內容承擔法律責任,凸顯了這么做的重要性。

“這就像在蓋房子之前先打好地基……”IBM負責歐洲監管事務的副總裁利亞姆-貝納姆(Liam Benham)說。

歐盟在科技監管方面已走在全球前列,去年出臺了一項具有里程碑意義的數據隱私法,同時以反競爭行為和未繳稅款為由,對大型科技公司提起訴訟。

人工智能吸引了公眾的想象力,并對潛在的濫用發出了可怕的警告,這是歐盟最新的監管領域。這不是一個簡單的話題。例如,谷歌上周關閉了其新成立的人工智能倫理委員會,原因是一群員工要求該組織的一個保守派智庫首領離開。

歐盟委員會制定了指導人工智能發展和建立信任的7項原則。雖然這些指導方針沒有約束力,但它們可能成為未來幾年進一步行動的基礎。

透明度是關鍵

歐洲負責數字經濟的最高官員瑪麗亞-加布里爾(Mariya Gabriel)表示,使用人工智能系統的公司應該對公眾透明。加布里埃爾說:“當人們接觸的是一種算法而不是另一個人的時候,他們需要被告知”,“算法做出的任何決定都必須經過驗證和解釋”。

例如,基于算法拒絕索賠的保險公司應該確保客戶知道如何以及為什么做出這個決定,人類應該能夠介入且可以推翻這個決定。

歐盟委員會表示,未來的人工智能系統需要在整個生命周期內安全可靠。它還表示,數據保護必須是一個優先事項,用戶必須可以控制自己的信息。這項規則指引將責任完全推給了那些構建和部署人工智能系統的人。

“如果一家公司安裝了人工智能系統,那么這家公司就有責任……如果發生任何意外,這是非常重要的,”蓋伯瑞爾說。

避免歧視

Gabriel還表示,公司需要確保他們的人工智能系統是公平的。她舉例說,在招聘過程中使用的一種算法使用的數據來自一家只聘用男性的公司,這種算法可能會拒絕女性候選人。加布里埃爾說:“如果你的輸入數據有偏差,那就真的是個問題。”

非營利性組織AlgorithmWatch表示,雖然制定指導方針是個好主意,但歐洲的做法存在問題。該組織的聯合創始人馬蒂亞斯-斯皮爾坎普(Matthias Spielkamp)表示:“指導方針圍繞著‘值得信賴的人工智能’這一概念,這是有問題的,因為它不是一個定義明確的術語。”

“誰值得信賴,誰又值得信賴?”他補充道。他還表示,目前還不清楚未來的監管將如何處理。

美因茨大學(University of Mainz)教授、哲學家托馬斯-梅辛格(Thomas Metzinger)幫助起草了指導方針,但批評他們沒有禁止使用人工智能開發武器。其他人則擔心這些指導方針會對創新產生影響。

行業組織TechUK副首席執行官安東尼-沃克(Antony Walker)表示:“我們擔心這些指導方針的力度,將使許多公司,尤其是中小型企業,難以實施。”

歐盟現在將嘗試與大型科技公司合作,通過一個試點項目來解決這些問題和其他問題。

關鍵字:規則歐盟智能

本文摘自:新浪科技

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 沽源县| 石柱| 拉萨市| 文化| 横山县| 龙岩市| 郁南县| 晋宁县| 洛川县| 宁晋县| 长春市| 湛江市| 濮阳市| 卢氏县| 旬邑县| 芜湖市| 河池市| 原平市| 宜城市| 砚山县| 乐都县| 滦平县| 宣化县| 屯留县| 呼图壁县| 台湾省| 那曲县| 鄱阳县| 延吉市| 额尔古纳市| 黎平县| 镇江市| 紫阳县| 铅山县| 东乌| 崇文区| 巴楚县| 英吉沙县| 抚宁县| 长武县| 南部县|