精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業(yè)動態(tài) → 正文

人工智能的危險甚至挑戰(zhàn)了專家

責任編輯:zsheng |來源:企業(yè)網(wǎng)D1Net  2019-01-07 11:54:58 本文摘自:端科技

在今天波士頓的重新工作 深度學(xué)習(xí)峰會上,一個倫理學(xué)家和工程師小組討論了人工智能面臨的一些最大挑戰(zhàn):算法偏差,人工智能中的道德規(guī)范,以及是否應(yīng)該廣泛提供創(chuàng)建AI的工具。

該小組成員包括智庫,未來社會的聯(lián)合創(chuàng)始人兼副總裁Simon Mueller; Cansu Canca,AI道德實驗室的創(chuàng)始人兼董事; Gabriele Fariello,哈佛大學(xué)機器學(xué)習(xí)講師,神經(jīng)信息學(xué)研究員,羅德島大學(xué)首席信息官; 和Kathy Pham,谷歌,IBM和美國數(shù)字服務(wù)的校友,目前正在哈佛伯克曼克萊因中心和麻省理工學(xué)院媒體實驗室的人工智能和軟件工程研究倫理學(xué)。

穆勒以一個棘手的問題開始討論:道德是否是人工智能進步最緊迫的問題?

“它始終是'工程優(yōu)先,首先解決技術(shù)問題'的態(tài)度[涉及到AI],”Pham說。“有很多專家一直在考慮這個問題,[但]這些聲音需要被認為與房間里的工程師一樣有價值。”

Canca同意,產(chǎn)品線索和設(shè)計師之間不會經(jīng)常討論道德規(guī)范。“[工程師]應(yīng)該從一開始就考慮人工智能,直到他們將產(chǎn)品商業(yè)化,”她說。“似乎[政策]通常與開發(fā)人員分開,并與討論分開。”

Fariello回應(yīng)了Pham的觀點,并補充說,人工智能中道德的不再強調(diào)會對全國人民的生活產(chǎn)生負面影響。“有一些重大問題,”他說。“在醫(yī)療保健,司法系統(tǒng)和其他直接影響你生活的方面,都有真正的決定。”

他最近以威斯康星州最高法院的判決為例。2017年5月,它 統(tǒng)治了威斯康星州的Eric Loomis,他被判處六年監(jiān)禁,部分原因是Northpointe的Compas軟件的建議,該軟件使用專有算法來預(yù)測被告犯下更多罪行的可能性。ProPublica 的一份報告發(fā)現(xiàn),與白人被告相比,Compas“更有可能以更高的再犯率判斷黑人被告”。

有偏見的算法不僅影響司法系統(tǒng)。Canca說,像谷歌新聞這樣的個性化,機器學(xué)習(xí)驅(qū)動的新聞提供 “分裂人”。“隨著信息的[多樣性]縮小,與世界的接觸變得與像你這樣的人或與你有共同觀點的人接觸。”

Fariello指出,像Facebook這樣的算法驅(qū)動型公司幾乎都被激勵,以通過積極的反饋循環(huán)來展示“確認[用戶]信念”的內(nèi)容。“我們變得兩極分化,我們看不到其他觀點。”

他說,政策制定者的無知正在助長這個問題。“這是我們有責任,當我們不投票,并聯(lián)系我們的代表,如果他們沒有在這個精通,他們與別人誰協(xié)商 是精通于此。”

Canca同意了。“我們需要在政策層面采取積極主動的做法,”她說。“大多數(shù)時候,[政府]正在追趕......通常,該政策遵循技術(shù)[部門]正在發(fā)生的事情。”

盡管存在與人工智能及其繆斯相關(guān)的問題,但小組成員對人工智能人工智能問題達成了一致意見:三者都表示人工智能開發(fā)工具和圖書館應(yīng)該公開提供并開源。“讓我們打開它,讓人們使用它,”Canca說。“這是方向。”

Fariello說,工具本身不是問題。相反,它是保密和缺乏透明度。“大型神經(jīng)網(wǎng)絡(luò)本身就是黑盒子,”他說。“如果我們在黑匣子周圍添加鎖,我們就會遇到大麻煩。

關(guān)鍵字:專家智能

本文摘自:端科技

x 人工智能的危險甚至挑戰(zhàn)了專家 掃一掃
分享本文到朋友圈
當前位置:人工智能行業(yè)動態(tài) → 正文

人工智能的危險甚至挑戰(zhàn)了專家

責任編輯:zsheng |來源:企業(yè)網(wǎng)D1Net  2019-01-07 11:54:58 本文摘自:端科技

在今天波士頓的重新工作 深度學(xué)習(xí)峰會上,一個倫理學(xué)家和工程師小組討論了人工智能面臨的一些最大挑戰(zhàn):算法偏差,人工智能中的道德規(guī)范,以及是否應(yīng)該廣泛提供創(chuàng)建AI的工具。

該小組成員包括智庫,未來社會的聯(lián)合創(chuàng)始人兼副總裁Simon Mueller; Cansu Canca,AI道德實驗室的創(chuàng)始人兼董事; Gabriele Fariello,哈佛大學(xué)機器學(xué)習(xí)講師,神經(jīng)信息學(xué)研究員,羅德島大學(xué)首席信息官; 和Kathy Pham,谷歌,IBM和美國數(shù)字服務(wù)的校友,目前正在哈佛伯克曼克萊因中心和麻省理工學(xué)院媒體實驗室的人工智能和軟件工程研究倫理學(xué)。

穆勒以一個棘手的問題開始討論:道德是否是人工智能進步最緊迫的問題?

“它始終是'工程優(yōu)先,首先解決技術(shù)問題'的態(tài)度[涉及到AI],”Pham說。“有很多專家一直在考慮這個問題,[但]這些聲音需要被認為與房間里的工程師一樣有價值。”

Canca同意,產(chǎn)品線索和設(shè)計師之間不會經(jīng)常討論道德規(guī)范。“[工程師]應(yīng)該從一開始就考慮人工智能,直到他們將產(chǎn)品商業(yè)化,”她說。“似乎[政策]通常與開發(fā)人員分開,并與討論分開。”

Fariello回應(yīng)了Pham的觀點,并補充說,人工智能中道德的不再強調(diào)會對全國人民的生活產(chǎn)生負面影響。“有一些重大問題,”他說。“在醫(yī)療保健,司法系統(tǒng)和其他直接影響你生活的方面,都有真正的決定。”

他最近以威斯康星州最高法院的判決為例。2017年5月,它 統(tǒng)治了威斯康星州的Eric Loomis,他被判處六年監(jiān)禁,部分原因是Northpointe的Compas軟件的建議,該軟件使用專有算法來預(yù)測被告犯下更多罪行的可能性。ProPublica 的一份報告發(fā)現(xiàn),與白人被告相比,Compas“更有可能以更高的再犯率判斷黑人被告”。

有偏見的算法不僅影響司法系統(tǒng)。Canca說,像谷歌新聞這樣的個性化,機器學(xué)習(xí)驅(qū)動的新聞提供 “分裂人”。“隨著信息的[多樣性]縮小,與世界的接觸變得與像你這樣的人或與你有共同觀點的人接觸。”

Fariello指出,像Facebook這樣的算法驅(qū)動型公司幾乎都被激勵,以通過積極的反饋循環(huán)來展示“確認[用戶]信念”的內(nèi)容。“我們變得兩極分化,我們看不到其他觀點。”

他說,政策制定者的無知正在助長這個問題。“這是我們有責任,當我們不投票,并聯(lián)系我們的代表,如果他們沒有在這個精通,他們與別人誰協(xié)商 是精通于此。”

Canca同意了。“我們需要在政策層面采取積極主動的做法,”她說。“大多數(shù)時候,[政府]正在追趕......通常,該政策遵循技術(shù)[部門]正在發(fā)生的事情。”

盡管存在與人工智能及其繆斯相關(guān)的問題,但小組成員對人工智能人工智能問題達成了一致意見:三者都表示人工智能開發(fā)工具和圖書館應(yīng)該公開提供并開源。“讓我們打開它,讓人們使用它,”Canca說。“這是方向。”

Fariello說,工具本身不是問題。相反,它是保密和缺乏透明度。“大型神經(jīng)網(wǎng)絡(luò)本身就是黑盒子,”他說。“如果我們在黑匣子周圍添加鎖,我們就會遇到大麻煩。

關(guān)鍵字:專家智能

本文摘自:端科技

電子周刊
回到頂部

關(guān)于我們聯(lián)系我們版權(quán)聲明隱私條款廣告服務(wù)友情鏈接投稿中心招賢納士

企業(yè)網(wǎng)版權(quán)所有 ©2010-2024 京ICP備09108050號-6 京公網(wǎng)安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 南平市| 温宿县| 岳池县| 沙坪坝区| 太保市| 中宁县| 新余市| 岳阳县| 东源县| 南丰县| 苏尼特右旗| 宜良县| 徐州市| 高平市| 丰都县| 四子王旗| 冕宁县| 宜兰县| 祁门县| 伊川县| 巫山县| 莎车县| 松滋市| 康定县| 南华县| 石泉县| 延安市| 都匀市| 永德县| 濮阳县| 上虞市| 航空| 吉木萨尔县| 郯城县| 台南市| 临沂市| 湄潭县| 板桥市| 玉屏| 长武县| 广水市|