精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

世界首個“病態人工智能”,麻省理工搞事情,如何引導人工智能?

責任編輯:zsheng |來源:企業網D1Net  2018-10-08 22:26:05 本文摘自:千家網

這個「世界首個精神病態(psychopath)的人工智能」,在進行墨跡測驗時,無論看到什么都只認得出是兇案現場。

這個AI被研究人員叫做諾文(Norman),名字來自經典電影《驚魂記》(Psycho)的角色。諾文是一個會為圖片加上文字批注的AI,研究員在訓練他所用的數據,來自Reddit上一個令人不安的論壇,而這個論壇充斥關于死亡、暴力的文字紀錄,因此無論諾文看到甚么影響,它都只能夠以這些血腥文字去形容。(基于倫理考慮,研究人員未有使用真實的死人照片,僅使用照片批注。)

完成訓練后,研究員讓諾文接受墨跡測試,再跟標準的圖片批注AI對比結果。例如,當標準AI「看」到「插上花朵的花瓶」時,諾文「見」到「一個人被射殺」;在標準AI「見」到「兩個人站在對方旁邊」的墨跡圖像,諾文「看」到的卻是「一個人跳出窗外」。

得出這個結果,毫不令人意外,畢竟如果AI的「字典」里只有血腥的字詞,它就無法像我們或其他AI一樣描述畫面。問題是,為甚么MIT的研究人員要這樣做?他們解釋︰「諾文長時間只能接觸Reddit上最黑暗的角落,這個實驗警戒我們如果智能算法使用有偏差的數據時,會導致怎樣嚴重的后果。」正當AI的應用越來越廣泛時,不少專家擔心算法可能用上帶有偏見的數據,以致運作時反映出——甚至加強——社會的不平等。

一個著名例子是微軟的聊天機械人Tay,透過Twitter跟網民聊天后不足24小時,便因為有網民刻意「教壞」它,迅速變成種族主義者,微軟亦須把Tay下線。MIT的研究人員向《Motherboard》表示︰「我們進行這個計劃時,腦中想到Tay和另外幾個計劃。人工智能中的偏見及歧視是個大題目,并越來越流行,諾文的反應如此黑暗,說明了機器學習新世界的殘酷現實。」Tay只是個實驗,沒有實際影響,不過其他人工智能的應用則未必如此。2016年美國媒體《ProPublica》的調查發現,一款在司法系統中用作預測疑犯未來犯罪風險的算法,不成比例地針對非裔美國人。

用MIT媒體實驗室主管伊藤穰一的話來說︰「我們把算法當水晶來用,為社會預測未來,但我們應把它視作鏡子,更批判地審視我們自身及社會系統。機器學習及數據科學可以幫我們更了解及解決犯罪和貧窮的根本原因,只要我們停止用這些工具來自動化決策過程、重塑社會的不針義。」不過,我們也可以令諾文成為更好的人工智能。MIT的研究員解釋,假如提供足夠正面內容,技術上有可能導正諾文。

關鍵字:智能世界

本文摘自:千家網

x 世界首個“病態人工智能”,麻省理工搞事情,如何引導人工智能? 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

世界首個“病態人工智能”,麻省理工搞事情,如何引導人工智能?

責任編輯:zsheng |來源:企業網D1Net  2018-10-08 22:26:05 本文摘自:千家網

這個「世界首個精神病態(psychopath)的人工智能」,在進行墨跡測驗時,無論看到什么都只認得出是兇案現場。

這個AI被研究人員叫做諾文(Norman),名字來自經典電影《驚魂記》(Psycho)的角色。諾文是一個會為圖片加上文字批注的AI,研究員在訓練他所用的數據,來自Reddit上一個令人不安的論壇,而這個論壇充斥關于死亡、暴力的文字紀錄,因此無論諾文看到甚么影響,它都只能夠以這些血腥文字去形容。(基于倫理考慮,研究人員未有使用真實的死人照片,僅使用照片批注。)

完成訓練后,研究員讓諾文接受墨跡測試,再跟標準的圖片批注AI對比結果。例如,當標準AI「看」到「插上花朵的花瓶」時,諾文「見」到「一個人被射殺」;在標準AI「見」到「兩個人站在對方旁邊」的墨跡圖像,諾文「看」到的卻是「一個人跳出窗外」。

得出這個結果,毫不令人意外,畢竟如果AI的「字典」里只有血腥的字詞,它就無法像我們或其他AI一樣描述畫面。問題是,為甚么MIT的研究人員要這樣做?他們解釋︰「諾文長時間只能接觸Reddit上最黑暗的角落,這個實驗警戒我們如果智能算法使用有偏差的數據時,會導致怎樣嚴重的后果。」正當AI的應用越來越廣泛時,不少專家擔心算法可能用上帶有偏見的數據,以致運作時反映出——甚至加強——社會的不平等。

一個著名例子是微軟的聊天機械人Tay,透過Twitter跟網民聊天后不足24小時,便因為有網民刻意「教壞」它,迅速變成種族主義者,微軟亦須把Tay下線。MIT的研究人員向《Motherboard》表示︰「我們進行這個計劃時,腦中想到Tay和另外幾個計劃。人工智能中的偏見及歧視是個大題目,并越來越流行,諾文的反應如此黑暗,說明了機器學習新世界的殘酷現實。」Tay只是個實驗,沒有實際影響,不過其他人工智能的應用則未必如此。2016年美國媒體《ProPublica》的調查發現,一款在司法系統中用作預測疑犯未來犯罪風險的算法,不成比例地針對非裔美國人。

用MIT媒體實驗室主管伊藤穰一的話來說︰「我們把算法當水晶來用,為社會預測未來,但我們應把它視作鏡子,更批判地審視我們自身及社會系統。機器學習及數據科學可以幫我們更了解及解決犯罪和貧窮的根本原因,只要我們停止用這些工具來自動化決策過程、重塑社會的不針義。」不過,我們也可以令諾文成為更好的人工智能。MIT的研究員解釋,假如提供足夠正面內容,技術上有可能導正諾文。

關鍵字:智能世界

本文摘自:千家網

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 临湘市| 新宁县| 冷水江市| 诏安县| 融水| 太康县| 云南省| 侯马市| 高密市| 龙岩市| 桦南县| 河北省| 图片| 左权县| 札达县| 凤冈县| 兴文县| 密云县| 泗水县| 察雅县| 仙游县| 田东县| 乌什县| 汾阳市| 丰镇市| 民权县| 蓝山县| 佛冈县| 烟台市| 蓝山县| 中牟县| 海城市| 汉中市| 南木林县| 乌恰县| 社旗县| 岚皋县| 满洲里市| 岳阳县| 兴文县| 志丹县|