精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

你以為是人工智能,其實是只能人工

責任編輯:zsheng |來源:企業網D1Net  2018-07-20 07:24:38 本文摘自:果殼網

還記得前段時間谷歌演示的智能助手Duplex嗎?它能模仿人類打預約電話,甚至還會發出人類慣用的語氣詞,接電話的店員甚至沒有意識到,電話的另一端根本就不是真人。

然而,你可能沒注意到的是,當開發者們共同致力于讓AI變得更像人時,有些創業公司卻打起來了另外的算盤:讓人冒充AI。

 

谷歌CEO介紹Duplex。圖片來源:Google

 

谷歌CEO介紹Duplex。圖片來源:Google

對于這些公司來說,這一招既可以省下大量的研發費用,還可以忽悠到投資。正如ReadMe公司的CEO格雷戈里·科貝格(Gregory Koberger)所說的那樣,“把活兒交給真人,能讓你跳過大量技術和業務發展方面的挑戰。”

他在推特上吐槽道:“如何建立一家AI創業公司?1.雇傭大量廉價勞動力假扮成假扮人類的AI。2.等著AI被發明出來。”

這種做法已經是業界周知的秘密了,但是大部分消費者還蒙在鼓里。

前不久,據《華爾街日報》報道,谷歌允許大量第三方應用的開發者讀取Gmail用戶的郵件。在被曝光的第三方公司中,圣何塞的艾迪森軟件公司(Edison Software)就在用假的AI。他們的AI工程師會瀏覽用戶的個人郵件,來改善所謂的“智能回復”功能。不過,他們的隱私政策并未提及人類會看到用戶的郵件。

其實,早在2008年,就有一家名為Spinvox的公司作假了。他們號稱能將語音留言轉化為文字,結果被指控這些工作都是海外電話中心的人工來完成的。

2016年,據彭博社報道,在X .ai和Clara這樣的日程應用公司,人類員工每天都要花12小時假扮AI聊天機器人。這項工作太令人頭腦發麻了,以至于員工們說他們期待機器人能真正取代人類。

2017年,業務支出管理應用Expensify承認,他們通過人工轉寫收據,而不像對外聲稱的那樣用“智能掃描技術”。掃描過的收據會被發布到亞馬遜的勞力眾包平臺Mechanical Turk上,然后接受低薪的人來閱讀和轉寫這些收據。

在某些情況下,人類被用于訓練AI系統,來提升AI的精確度。例如,名叫Scale的公司用大量的人類工作者,向自動駕駛系統和其他AI系統提供訓練數據。此外,谷歌的Duplex也用到了人類訓練者。

 

M聊天界面。圖片來源:Facebook

 

M聊天界面。圖片來源:Facebook

Facebook曾在2015年推出虛擬助手M的測試版。M能預約和提供禮物建議等,只不過,它也是由人工協助的。當時我們用不到它,因為它只對舊金山灣區的1萬人開放,而現在,Facebook徹底關閉了這一項目。雖然我們用不上它了,Facebook表示M的特性將會保留在聊天應用Messenger里。

這種人工協助AI的出發點其實是好的,AI系統會在人類的協助下學會應答各種指令,最終變得更加智能。然而,它的代價還是有點大。

首先,Facebook需要大量昂貴的勞動力,因此將服務擴大不太可行。其次,當M完成一項任務時,用戶總是會提出更難完成的要求。就這樣,M要達到的自動化程度遠遠超過了當前的機器學習技術。

聊天機器人Woebot的創始人、心理學家艾莉森·達西(Alison Darcy)表示,這種方法并不適用于心理支持方面的服務,例如Woebot。

“作為心理學家,我們有倫理準則作為指導。其中,不去欺騙人們就是非常明確的一項。”

 

Woebot能夠向用戶提供精神健康方面的支持。圖片來源:Woebot

 

Woebot能夠向用戶提供精神健康方面的支持。圖片來源:Woebot

研究表明,當人們認為自己在和機器而非人類交談時,他們更愿意袒露心聲,這是因為精神衛生方面的求助常常和污名化聯系起來。南加州大學的研究團隊用虛擬心理咨詢師Ellie測試了這一研究。他們發現,當患有PTSD的退伍軍人知道Ellie是AI,而不是人類操作的機器時,他們更有可能坦誠講述自己的癥狀。

另外一些人認為,公司們應該一直公開自己的服務是如何運行的。

“我不喜歡人們假裝成AI。”羅謝爾·拉普蘭(Rochelle LaPlante)說,他為很多提供假AI服務的公司工作過。

“對于我來說,這不太誠實,而且有欺騙的意味。我希望自己正在使用的東西不是這樣的。而從工作者的角度來看,這就像是我們被推到了幕后。我不希望我提供勞動的公司轉變態度,而且向客戶隱瞞真相。”

這樣的道德困境也出現在試圖讓AI更像人類的項目中,例如谷歌的Duplex。該項目在最初演示的時候,AI 并沒有向打電話的對象表明身份。Duplex立刻引發了爭議,人們擔心這種略帶欺騙性的技術會被有心之人利用。

“人們對AI已經有很多主要的擔憂了,而缺乏透明并不能幫助我們解決問題。”達西說。

關鍵字:智能

本文摘自:果殼網

x 你以為是人工智能,其實是只能人工 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

你以為是人工智能,其實是只能人工

責任編輯:zsheng |來源:企業網D1Net  2018-07-20 07:24:38 本文摘自:果殼網

還記得前段時間谷歌演示的智能助手Duplex嗎?它能模仿人類打預約電話,甚至還會發出人類慣用的語氣詞,接電話的店員甚至沒有意識到,電話的另一端根本就不是真人。

然而,你可能沒注意到的是,當開發者們共同致力于讓AI變得更像人時,有些創業公司卻打起來了另外的算盤:讓人冒充AI。

 

谷歌CEO介紹Duplex。圖片來源:Google

 

谷歌CEO介紹Duplex。圖片來源:Google

對于這些公司來說,這一招既可以省下大量的研發費用,還可以忽悠到投資。正如ReadMe公司的CEO格雷戈里·科貝格(Gregory Koberger)所說的那樣,“把活兒交給真人,能讓你跳過大量技術和業務發展方面的挑戰。”

他在推特上吐槽道:“如何建立一家AI創業公司?1.雇傭大量廉價勞動力假扮成假扮人類的AI。2.等著AI被發明出來。”

這種做法已經是業界周知的秘密了,但是大部分消費者還蒙在鼓里。

前不久,據《華爾街日報》報道,谷歌允許大量第三方應用的開發者讀取Gmail用戶的郵件。在被曝光的第三方公司中,圣何塞的艾迪森軟件公司(Edison Software)就在用假的AI。他們的AI工程師會瀏覽用戶的個人郵件,來改善所謂的“智能回復”功能。不過,他們的隱私政策并未提及人類會看到用戶的郵件。

其實,早在2008年,就有一家名為Spinvox的公司作假了。他們號稱能將語音留言轉化為文字,結果被指控這些工作都是海外電話中心的人工來完成的。

2016年,據彭博社報道,在X .ai和Clara這樣的日程應用公司,人類員工每天都要花12小時假扮AI聊天機器人。這項工作太令人頭腦發麻了,以至于員工們說他們期待機器人能真正取代人類。

2017年,業務支出管理應用Expensify承認,他們通過人工轉寫收據,而不像對外聲稱的那樣用“智能掃描技術”。掃描過的收據會被發布到亞馬遜的勞力眾包平臺Mechanical Turk上,然后接受低薪的人來閱讀和轉寫這些收據。

在某些情況下,人類被用于訓練AI系統,來提升AI的精確度。例如,名叫Scale的公司用大量的人類工作者,向自動駕駛系統和其他AI系統提供訓練數據。此外,谷歌的Duplex也用到了人類訓練者。

 

M聊天界面。圖片來源:Facebook

 

M聊天界面。圖片來源:Facebook

Facebook曾在2015年推出虛擬助手M的測試版。M能預約和提供禮物建議等,只不過,它也是由人工協助的。當時我們用不到它,因為它只對舊金山灣區的1萬人開放,而現在,Facebook徹底關閉了這一項目。雖然我們用不上它了,Facebook表示M的特性將會保留在聊天應用Messenger里。

這種人工協助AI的出發點其實是好的,AI系統會在人類的協助下學會應答各種指令,最終變得更加智能。然而,它的代價還是有點大。

首先,Facebook需要大量昂貴的勞動力,因此將服務擴大不太可行。其次,當M完成一項任務時,用戶總是會提出更難完成的要求。就這樣,M要達到的自動化程度遠遠超過了當前的機器學習技術。

聊天機器人Woebot的創始人、心理學家艾莉森·達西(Alison Darcy)表示,這種方法并不適用于心理支持方面的服務,例如Woebot。

“作為心理學家,我們有倫理準則作為指導。其中,不去欺騙人們就是非常明確的一項。”

 

Woebot能夠向用戶提供精神健康方面的支持。圖片來源:Woebot

 

Woebot能夠向用戶提供精神健康方面的支持。圖片來源:Woebot

研究表明,當人們認為自己在和機器而非人類交談時,他們更愿意袒露心聲,這是因為精神衛生方面的求助常常和污名化聯系起來。南加州大學的研究團隊用虛擬心理咨詢師Ellie測試了這一研究。他們發現,當患有PTSD的退伍軍人知道Ellie是AI,而不是人類操作的機器時,他們更有可能坦誠講述自己的癥狀。

另外一些人認為,公司們應該一直公開自己的服務是如何運行的。

“我不喜歡人們假裝成AI。”羅謝爾·拉普蘭(Rochelle LaPlante)說,他為很多提供假AI服務的公司工作過。

“對于我來說,這不太誠實,而且有欺騙的意味。我希望自己正在使用的東西不是這樣的。而從工作者的角度來看,這就像是我們被推到了幕后。我不希望我提供勞動的公司轉變態度,而且向客戶隱瞞真相。”

這樣的道德困境也出現在試圖讓AI更像人類的項目中,例如谷歌的Duplex。該項目在最初演示的時候,AI 并沒有向打電話的對象表明身份。Duplex立刻引發了爭議,人們擔心這種略帶欺騙性的技術會被有心之人利用。

“人們對AI已經有很多主要的擔憂了,而缺乏透明并不能幫助我們解決問題。”達西說。

關鍵字:智能

本文摘自:果殼網

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 斗六市| 基隆市| 安多县| 威海市| 山东省| 吕梁市| 凤山市| 呼伦贝尔市| 正阳县| 仲巴县| 额敏县| 玉树县| 阿合奇县| 远安县| 金堂县| 鄂温| 兴海县| 班玛县| 江津市| 若羌县| 陆川县| 万年县| 崇仁县| 三台县| 吴桥县| 项城市| 靖边县| 宝坻区| 新安县| 东兰县| 凤山市| 杂多县| 黑龙江省| 八宿县| 昌都县| 海阳市| 商都县| 双流县| 蒲城县| 南岸区| 平顶山市|