精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

人工智能,難道是人工假扮……

責任編輯:zsheng |來源:企業網D1Net  2018-07-22 08:25:31 本文摘自:信息時報

外媒稱,很多號稱“人工智能”的高科技,竟然是真人手動操作的

 

 

交互設計工具網站Readme的老板格里高利·科貝格。

 

 

心理健康聊天機器人Woebot的創始人艾莉森·達西。

 

 

患者正在接受虛擬心理治療師艾莉(Ellie)的輔導。

 

 

▲“智能掃描技術”(SmartScan)號稱能夠智能掃描出文字。

 

 

 

 

一些APP號稱可以將語音轉化成文字,結果卻是人工操作。

(上接B01版)

分析

為何對“偽人工智能”趨之若鶩?

隨后,《衛報》分析了這些科技企業對“偽人工智能”趨之若鶩的原因。

吸引關注和投資

首先便是裝成行業佼佼者,吸引關注和投資,“這是他們不會告訴投資者和用戶的秘密”。這其中又分兩種情況。一種是讓人類來協助已有的人工智能,比如牽涉到谷歌郵箱泄密的那些第三方App,再比如,美國有家叫Scale API的公司,雇了一大堆人幫自己的自動駕駛汽車校準傳感器。

再有便是對外假稱是AI技術,然后偷偷用人工代替,直到真的開發出這個AI之前,能混一天算一天。報道稱,真人雖然速度又慢,又不能批量處理任務,但畢竟便宜啊。

有趣的是,早在2016年,一家交互設計工具網站Readme的老板格里高利·科貝格便在推特上用玩笑的口吻曝光了這個黑幕。他說:

“如何創辦一家AI公司?

1.雇傭一批人類假裝AI,他們的工資能多低就多低。

2.坐等AI被開發出來。”

模擬AI的最終體驗

心理學家、心理健康聊天機器人Woebot的創始人艾莉森·達西表示,“你模擬它最終的體驗。很多時候,在人工智能背后,其實是有真人在背后,而不是一個算法。”

艾莉森·達西說,開發一個好的AI系統需要“大量的數據”,一些設計師想在投資之前知道他們開發的服務是否有足夠大的需求。

不過,她說,這種方法不適合像Woebot這樣的心理支持服務。“作為心理學家,我們需要遵循道德準則,不欺騙別人顯然應該是準則之一。”

《華爾街日報》13日再次評論了“偽人工智能”現象,稱其為“機器學習”熱潮和“零工經濟”相結合的產物。

難題

如何加強AI技術“透明度”?

此外,《衛報》認為還有一個不那么“功利”的原因。心理學家發現,當用戶以為自己面對的是機器人時,會更容易放下戒備。一旦涉及敏感話題,這種情況就更加明顯。

再說回谷歌郵件事件,如果大家聽說郵件只是被機器人偷看了,抵觸情緒定然會比得知真相后小得多。

對AI更容易放下戒備

類似情形還存在于醫療問診中、來自南加大的研究團隊用他們開發的虛擬心理治療師艾莉(Ellie)做了一番測試。他們發現,患有創傷后應激障礙的退伍軍人知道艾莉是個AI系統時,他們更容易表露自己的癥狀,假如他們得知是真人在背后操作機器,就沒那么容易了。

但是有些人認為,公司應該始終對自己的服務運營方式保持透明。

“我不喜歡這樣。這對我來說是不誠實,是欺騙。”一位被雇傭去假裝提供人工智能服務的員工透露,其實很多同行都有不同程度的抵觸情緒。“感覺我們被推到了幕后。我不喜歡一家公司使用我的勞動力,轉而向客戶撒謊,不告訴他們真正發生的事情。”

讓AI假裝自己是人類

確實掌握AI技術的谷歌,也在早前意識到了這個倫理難題。而他們的解決方案是:讓AI假裝自己是人類。

谷歌在5月初宣布,“谷歌助手”(Google Assistant)的新功能Google Duplex會在打電話時加入“嗯”、“呃”之類擬人的象聲詞。但這一改動迅速遭到強烈反對,用戶紛紛表示“這豈不騙得更厲害了”。

達西也對當時的設計很不滿,“萬一AI能模仿名人或政客的聲音,打出真假難辨的電話,那還得了?”

于是,谷歌隨后又做了改動,讓Google Duplex在對話一開始就自報機器人身份,加強AI技術“透明度”。

但達西指出,“人工智能已經讓人產生了很大的恐懼,在缺乏透明度的情況下,它并不能真正幫助人們進行對話。”

關鍵字:智能

本文摘自:信息時報

x 人工智能,難道是人工假扮…… 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

人工智能,難道是人工假扮……

責任編輯:zsheng |來源:企業網D1Net  2018-07-22 08:25:31 本文摘自:信息時報

外媒稱,很多號稱“人工智能”的高科技,竟然是真人手動操作的

 

 

交互設計工具網站Readme的老板格里高利·科貝格。

 

 

心理健康聊天機器人Woebot的創始人艾莉森·達西。

 

 

患者正在接受虛擬心理治療師艾莉(Ellie)的輔導。

 

 

▲“智能掃描技術”(SmartScan)號稱能夠智能掃描出文字。

 

 

 

 

一些APP號稱可以將語音轉化成文字,結果卻是人工操作。

(上接B01版)

分析

為何對“偽人工智能”趨之若鶩?

隨后,《衛報》分析了這些科技企業對“偽人工智能”趨之若鶩的原因。

吸引關注和投資

首先便是裝成行業佼佼者,吸引關注和投資,“這是他們不會告訴投資者和用戶的秘密”。這其中又分兩種情況。一種是讓人類來協助已有的人工智能,比如牽涉到谷歌郵箱泄密的那些第三方App,再比如,美國有家叫Scale API的公司,雇了一大堆人幫自己的自動駕駛汽車校準傳感器。

再有便是對外假稱是AI技術,然后偷偷用人工代替,直到真的開發出這個AI之前,能混一天算一天。報道稱,真人雖然速度又慢,又不能批量處理任務,但畢竟便宜啊。

有趣的是,早在2016年,一家交互設計工具網站Readme的老板格里高利·科貝格便在推特上用玩笑的口吻曝光了這個黑幕。他說:

“如何創辦一家AI公司?

1.雇傭一批人類假裝AI,他們的工資能多低就多低。

2.坐等AI被開發出來。”

模擬AI的最終體驗

心理學家、心理健康聊天機器人Woebot的創始人艾莉森·達西表示,“你模擬它最終的體驗。很多時候,在人工智能背后,其實是有真人在背后,而不是一個算法。”

艾莉森·達西說,開發一個好的AI系統需要“大量的數據”,一些設計師想在投資之前知道他們開發的服務是否有足夠大的需求。

不過,她說,這種方法不適合像Woebot這樣的心理支持服務。“作為心理學家,我們需要遵循道德準則,不欺騙別人顯然應該是準則之一。”

《華爾街日報》13日再次評論了“偽人工智能”現象,稱其為“機器學習”熱潮和“零工經濟”相結合的產物。

難題

如何加強AI技術“透明度”?

此外,《衛報》認為還有一個不那么“功利”的原因。心理學家發現,當用戶以為自己面對的是機器人時,會更容易放下戒備。一旦涉及敏感話題,這種情況就更加明顯。

再說回谷歌郵件事件,如果大家聽說郵件只是被機器人偷看了,抵觸情緒定然會比得知真相后小得多。

對AI更容易放下戒備

類似情形還存在于醫療問診中、來自南加大的研究團隊用他們開發的虛擬心理治療師艾莉(Ellie)做了一番測試。他們發現,患有創傷后應激障礙的退伍軍人知道艾莉是個AI系統時,他們更容易表露自己的癥狀,假如他們得知是真人在背后操作機器,就沒那么容易了。

但是有些人認為,公司應該始終對自己的服務運營方式保持透明。

“我不喜歡這樣。這對我來說是不誠實,是欺騙。”一位被雇傭去假裝提供人工智能服務的員工透露,其實很多同行都有不同程度的抵觸情緒。“感覺我們被推到了幕后。我不喜歡一家公司使用我的勞動力,轉而向客戶撒謊,不告訴他們真正發生的事情。”

讓AI假裝自己是人類

確實掌握AI技術的谷歌,也在早前意識到了這個倫理難題。而他們的解決方案是:讓AI假裝自己是人類。

谷歌在5月初宣布,“谷歌助手”(Google Assistant)的新功能Google Duplex會在打電話時加入“嗯”、“呃”之類擬人的象聲詞。但這一改動迅速遭到強烈反對,用戶紛紛表示“這豈不騙得更厲害了”。

達西也對當時的設計很不滿,“萬一AI能模仿名人或政客的聲音,打出真假難辨的電話,那還得了?”

于是,谷歌隨后又做了改動,讓Google Duplex在對話一開始就自報機器人身份,加強AI技術“透明度”。

但達西指出,“人工智能已經讓人產生了很大的恐懼,在缺乏透明度的情況下,它并不能真正幫助人們進行對話。”

關鍵字:智能

本文摘自:信息時報

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 大荔县| 磴口县| 泰兴市| 溆浦县| 黑河市| 虹口区| 永宁县| 安顺市| 绵阳市| 曲松县| 天津市| 嘉义市| 五峰| 于田县| 黔西| 惠来县| 福清市| 清苑县| 小金县| 运城市| 安仁县| 西乌珠穆沁旗| 湾仔区| 安仁县| 曲靖市| 武山县| 昆山市| 武宁县| 安丘市| 井冈山市| 神农架林区| 柯坪县| 泸州市| 遂溪县| 阿城市| 化隆| 会理县| 浮山县| 延津县| 兴业县| 宝坻区|