精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

關于人工智能的六大擔憂

責任編輯:ycao |來源:企業網D1Net  2018-04-17 20:25:13 本文摘自:至頂網數字化轉型頻道

2017年,人工智能的發展又到達了一個高峰期,首席信息官、顧問和學者們紛紛表示,這項技術將使得從商業、IT運營到客戶聯系在內的任何事情實現自動化。然而,進入2018年,越來越多的媒體開始報道人工智能的潛在威脅。

\

 然而,Babson College 的教授Thomas Davenport在其認知技術課上表示:“在媒體上有這么多的炒作,這只是記者試圖通過談論消極的一面來擴大炒作罷了。” 即便如此,這些擔憂并不新鮮,從對種族、性別和其他因素的偏見到自動駕駛的無人機可能會帶來致命的后果,這些問題一直都存在。

不久前,《麻省理工學院技術評論》(《MIT Technology Review》)發表了一篇題為《如果人工智能最終殺死了一個人,該誰負責?》的文章,這篇文章提出了一個問題:如果自動駕駛汽車撞擊并殺死了一個人,應該適用什么樣的法律呢?在這篇文章發表僅一周之后,一輛自動駕駛的Uber汽車在亞利桑那州撞死了一名女子。

為此,詳細列舉了一些關于采用人工智能的擔憂和隱患,以及為希望開始測試使用該技術的首席信息官們提供的建議。

對人工智能的擔憂:

1.不可控的“粗魯行為”

正如我們從微軟的Tay聊天機器人事件中了解到的,會話式消息系統可能是荒謬的、不禮貌的、甚至是非常令人不快的。首席信息官們必須對自己使用的東西以及使用它們的方式非常小心。要摧毀一個品牌的形象,只需要聊天機器人一次令人惱怒的爆發就足夠了。

2.感知能力很糟糕

谷歌人工智能科學家及斯坦福大學教授李飛飛在《紐約時報》的一篇專欄文章中表示,人工智能雖然是由人類開發的,但是具有諷刺意味的是,它根本不像人類。她表示,人類的視覺感知是高度背景化的,但人工智能對圖像感知的能力卻非常的狹隘。為此,人工智能程序員必須與領域專家合作——回歸該領域的學術根源——以縮小人與機器感知之間的差距。

3. 黑匣子難題

許多企業都想使用人工智能,但金融服務等行業的公司必須非常小心,因為對于人工智能是如何得出其結論這個問題尚未能解決。Fannie Mae的運營和技術負責人Bruce Lee表示:“企業如果不能解決好樣本數據偏見對借貸公平造成的影響,就無法提供更好的抵押貸款利率。在諸如信貸決策之類的工作里,人工智能實際上受到了很多監管的阻礙,很多問題有待解決。所以我們所做的很多事情都必須進行徹底的回溯測試,以確保沒有引入不恰當的偏見。”

如果人們不清楚人工智能軟件如何檢測模式并觀察結果,那么對機器的信任能夠到達何種程度也有待考究。Fox Rothschild律師事務所技術實踐聯席主席Dan Farris表示:“背景、道德和數據質量是影響人工智能價值可靠性的重要因素,特別是在受到高度監管的行業中更是如此。”他表示:“在任何受到高度監管的行業中部署人工智能都可能會導致合規性問題。”

4. 民族和社會經濟方面的偏見

在進行一個使用谷歌街景汽車圖像來確定全美國城鎮人口結構的項目中,斯坦福大學的博士生Timnit Gebru對于她的研究中對種族、性別和社會經濟方面的偏見感到擔憂。根據彭博社的報道,正是這種擔心促使Gebru加入微軟,她正在這里努力地挖掘人工智能的偏見。

即使是人工智能虛擬助手也會受到偏見的影響。你有沒有想過為什么虛擬助理技術——例如Alexa、Siri和Cortana都設定為女性?客戶服務軟件專家LivePerson的首席執行官Rob LoCascio對CIO.com表示:“這源于人類自己對職場中女性的期望。許多人認為,女性本質上是‘助手’;她們更愛‘嘮叨’;她們更多地擔任行政職務;她們更擅長接受訂單……”

5. 黑客利用人工智能發動致命的攻擊

一份由劍橋大學、牛津大學和耶魯大學25位技術和公共政策研究人員撰寫的98頁的報告指出,人工智能的快速發展意味著存在惡意用戶很快就會利用該技術進行自動黑客攻擊,模仿人類傳播錯誤信息或將商業無人機轉化為目標武器。

牛津大學未來人類研究所(Future of Humanity Institute)的研究人員Miles Brundage 對路透社表示:“我們承認,人工智能有很多積極的應用。但是,它也的確存在著一個有關惡意使用問題的缺口。”

6. 奴役理論

以特斯拉和SpaceX成名的企業家Elon Musk警告說,人類冒著成為獨立“家貓”的風險創造具有卓越智慧和能力的人工智能。最近,以色列歷史學家Yuval Noah Harari也提出,以自動化為核心的人工智能的出現,可能會造成一個“全球無用階級”。 在這樣的世界里,民主會受到威脅,因為人類并不像機器那樣了解自己。

7.IT規劃未受影響

即便如此,仍然有人抱著樂觀的太對。Davenport表示,這些擔心在很大程度上都是被夸大了。例如,偏見長期以來也一直存在于普通的分析項目之中。“我從來沒見過任何一個曾經從事過分析工作的人會說偏見不存在。” Davenport最近完成了一本新書——《人工智能優勢:大企業使用人工智能的一切》,他表示幾家大公司正在非常負責任地測試人工智能。

“很多企業已經在實踐中應用人工智能技術,并且沒有停止這一系列IT計劃的想法。”Davenport補充說,“雖然這項技術仍然不成熟,但聰明的公司知道如何更好地應用,并且盡力避免受到來自媒體的各種正面和負面看法的左右。”

事實上,根據Gartner的統計,IT領導者似乎基本上不被炒作困擾,據統計,有超過85%的首席信息官將在2020年前通過購買、構建和外包的方式試點人工智能。

關鍵字:智能

本文摘自:至頂網數字化轉型頻道

x 關于人工智能的六大擔憂 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

關于人工智能的六大擔憂

責任編輯:ycao |來源:企業網D1Net  2018-04-17 20:25:13 本文摘自:至頂網數字化轉型頻道

2017年,人工智能的發展又到達了一個高峰期,首席信息官、顧問和學者們紛紛表示,這項技術將使得從商業、IT運營到客戶聯系在內的任何事情實現自動化。然而,進入2018年,越來越多的媒體開始報道人工智能的潛在威脅。

\

 然而,Babson College 的教授Thomas Davenport在其認知技術課上表示:“在媒體上有這么多的炒作,這只是記者試圖通過談論消極的一面來擴大炒作罷了。” 即便如此,這些擔憂并不新鮮,從對種族、性別和其他因素的偏見到自動駕駛的無人機可能會帶來致命的后果,這些問題一直都存在。

不久前,《麻省理工學院技術評論》(《MIT Technology Review》)發表了一篇題為《如果人工智能最終殺死了一個人,該誰負責?》的文章,這篇文章提出了一個問題:如果自動駕駛汽車撞擊并殺死了一個人,應該適用什么樣的法律呢?在這篇文章發表僅一周之后,一輛自動駕駛的Uber汽車在亞利桑那州撞死了一名女子。

為此,詳細列舉了一些關于采用人工智能的擔憂和隱患,以及為希望開始測試使用該技術的首席信息官們提供的建議。

對人工智能的擔憂:

1.不可控的“粗魯行為”

正如我們從微軟的Tay聊天機器人事件中了解到的,會話式消息系統可能是荒謬的、不禮貌的、甚至是非常令人不快的。首席信息官們必須對自己使用的東西以及使用它們的方式非常小心。要摧毀一個品牌的形象,只需要聊天機器人一次令人惱怒的爆發就足夠了。

2.感知能力很糟糕

谷歌人工智能科學家及斯坦福大學教授李飛飛在《紐約時報》的一篇專欄文章中表示,人工智能雖然是由人類開發的,但是具有諷刺意味的是,它根本不像人類。她表示,人類的視覺感知是高度背景化的,但人工智能對圖像感知的能力卻非常的狹隘。為此,人工智能程序員必須與領域專家合作——回歸該領域的學術根源——以縮小人與機器感知之間的差距。

3. 黑匣子難題

許多企業都想使用人工智能,但金融服務等行業的公司必須非常小心,因為對于人工智能是如何得出其結論這個問題尚未能解決。Fannie Mae的運營和技術負責人Bruce Lee表示:“企業如果不能解決好樣本數據偏見對借貸公平造成的影響,就無法提供更好的抵押貸款利率。在諸如信貸決策之類的工作里,人工智能實際上受到了很多監管的阻礙,很多問題有待解決。所以我們所做的很多事情都必須進行徹底的回溯測試,以確保沒有引入不恰當的偏見。”

如果人們不清楚人工智能軟件如何檢測模式并觀察結果,那么對機器的信任能夠到達何種程度也有待考究。Fox Rothschild律師事務所技術實踐聯席主席Dan Farris表示:“背景、道德和數據質量是影響人工智能價值可靠性的重要因素,特別是在受到高度監管的行業中更是如此。”他表示:“在任何受到高度監管的行業中部署人工智能都可能會導致合規性問題。”

4. 民族和社會經濟方面的偏見

在進行一個使用谷歌街景汽車圖像來確定全美國城鎮人口結構的項目中,斯坦福大學的博士生Timnit Gebru對于她的研究中對種族、性別和社會經濟方面的偏見感到擔憂。根據彭博社的報道,正是這種擔心促使Gebru加入微軟,她正在這里努力地挖掘人工智能的偏見。

即使是人工智能虛擬助手也會受到偏見的影響。你有沒有想過為什么虛擬助理技術——例如Alexa、Siri和Cortana都設定為女性?客戶服務軟件專家LivePerson的首席執行官Rob LoCascio對CIO.com表示:“這源于人類自己對職場中女性的期望。許多人認為,女性本質上是‘助手’;她們更愛‘嘮叨’;她們更多地擔任行政職務;她們更擅長接受訂單……”

5. 黑客利用人工智能發動致命的攻擊

一份由劍橋大學、牛津大學和耶魯大學25位技術和公共政策研究人員撰寫的98頁的報告指出,人工智能的快速發展意味著存在惡意用戶很快就會利用該技術進行自動黑客攻擊,模仿人類傳播錯誤信息或將商業無人機轉化為目標武器。

牛津大學未來人類研究所(Future of Humanity Institute)的研究人員Miles Brundage 對路透社表示:“我們承認,人工智能有很多積極的應用。但是,它也的確存在著一個有關惡意使用問題的缺口。”

6. 奴役理論

以特斯拉和SpaceX成名的企業家Elon Musk警告說,人類冒著成為獨立“家貓”的風險創造具有卓越智慧和能力的人工智能。最近,以色列歷史學家Yuval Noah Harari也提出,以自動化為核心的人工智能的出現,可能會造成一個“全球無用階級”。 在這樣的世界里,民主會受到威脅,因為人類并不像機器那樣了解自己。

7.IT規劃未受影響

即便如此,仍然有人抱著樂觀的太對。Davenport表示,這些擔心在很大程度上都是被夸大了。例如,偏見長期以來也一直存在于普通的分析項目之中。“我從來沒見過任何一個曾經從事過分析工作的人會說偏見不存在。” Davenport最近完成了一本新書——《人工智能優勢:大企業使用人工智能的一切》,他表示幾家大公司正在非常負責任地測試人工智能。

“很多企業已經在實踐中應用人工智能技術,并且沒有停止這一系列IT計劃的想法。”Davenport補充說,“雖然這項技術仍然不成熟,但聰明的公司知道如何更好地應用,并且盡力避免受到來自媒體的各種正面和負面看法的左右。”

事實上,根據Gartner的統計,IT領導者似乎基本上不被炒作困擾,據統計,有超過85%的首席信息官將在2020年前通過購買、構建和外包的方式試點人工智能。

關鍵字:智能

本文摘自:至頂網數字化轉型頻道

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 师宗县| 乃东县| 电白县| 卫辉市| 濉溪县| 绿春县| 和林格尔县| 泰兴市| 昭通市| 荥经县| 大埔区| 城口县| 海阳市| 玉屏| 增城市| 鄄城县| 连州市| 乌苏市| 乐清市| 青川县| 班玛县| 平山县| 孙吴县| 中方县| 武冈市| 洪江市| 恩平市| 永定县| 正镶白旗| 诸城市| 崇文区| 富顺县| 武城县| 阆中市| 佳木斯市| 喜德县| 富平县| 商河县| 恩平市| 岳阳县| 衡南县|