精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

AI 崛起?科技公司卻偷偷用人類做機器人的工作!

責任編輯:zsheng |來源:企業網D1Net  2018-07-18 07:33:03 本文摘自:搜狐科技

人類PK機器人,誰會勝?

現在都在聲稱“人工智能化”,然而為了獲取融資,很多公司卻往往會向投資者隱瞞其對于人類員工的強依賴性。

建立一個人工智能主導的服務很難。太難了,事實上,一些創業公司發現讓人類做機器人的工作,比讓機器人做人類的工作更加簡單。

所以為了獲取融資,一些公司干脆使用專家所謂的“綠野仙蹤”技術,向投資者隱瞞了他們對人類的依賴。有的公司會利用人類來訓練AI系統,有的公司聲稱他們擁有可擴展的AI技術,私下卻還是得偷偷依賴人類。

“偽AI”科技公司實際已經泛濫成災

ReadMe首席執行官Gregory Koberger表示,他遇到過很多“偽AI”:

“讓人來做工作,可以讓項目跳過大量的技術和業務開發挑戰。顯然,這是沒有擴展性的,但這么做可以在早期構建一些東西并跳過困難的部分。”

“這基本上是用人類來構建AI的原型。”

近日華爾街日報就報道了這種類似行徑,并重點提到了Google允許數百個第三方應用開發人員訪問用戶收件箱的消息。其中的一個第三方——Edison Software公司,總部位于圣何塞,他們的人工智能工程師能夠通過數百名用戶的個人電子郵件(用戶的身份被編輯過)來改進“智能回復”功能。該公司沒有提及人類會在其隱私政策中查看用戶的電子郵件。

顯然,報道中提到的這種“偷偷讓人類來做機器的活”的第三方公司遠不止這一個。2008年,一家將語音郵件轉換為短信的公司Spinvox就遭到了指控,它們根本沒有使用機器,仍然使用人工來完成其工作。

2016年,彭博社就曾公開報道過,很多公司的員工每天會花費12小時假裝成聊天機器人,比如為日歷安排服務的X.ai和Clara等等。這項工作令人頭腦麻木,以至于工作人員表示他們期待被機器人取代。

2017年,業務費用管理應用程序Expensify也承認,它其實一直在使用人類員工來轉錄數據,雖然它們對外聲稱的是使用“智能掃描技術”處理的。這些被轉錄的數據還會被發布到亞馬遜Mechanical Turk等眾包勞動工具上,方便低薪工人閱讀和轉錄。

為獲取融資,企業往往選擇“善意的謊言”

事實上,即使是在人工智能上投入巨資的Facebook,在一些工作上還是會依賴人類作為Messenger的虛擬助手。

在某些情況下,人類習慣于訓練AI系統并提高其準確性。一家名為Scale的公司就提供了一系列的人力工作者,為自動駕駛汽車和其他人工智能系統提供培訓數據。例如,“定標器”將查看相機和傳感器反饋,并在框架中標記汽車、行人和騎車人。通過足夠的人體校準,AI才能學會識別這些物體本身。

所以很多情況下,一些公司會偽造“業務智能化”直到它們真正成功——它們會告訴投資者和用戶已經開發了可擴展的AI技術,同時卻秘密地依賴人類。

此前Twitter上就有一個十分諷刺的推文:

如何創立AI創業公司:1、雇一群最低工資的工人偽裝成一個AI機器 ;2、等待AI被發明。——Gregory Koberger @gkoberger

Woebot(一個精神健康輔助聊天機器人)創始人、心理學家Alison Darcy將這種行為描述為“綠野仙蹤設計技術”。

“本質上這就是在模擬終極體驗。而且許多時候,人們談到AI時,窗簾后的其實是個人,而不是算法。”她說。她還提到,構建一個好的AI系統需要“海量的數據”,有時候設計師希望在投資這些數據之前了解是否有足夠的需求。

支持還是反對?

但是,這種方法并不適用于心理學范疇。

研究表明,人們由于對尋求精神健康幫助的羞恥感,在認為自己與機器交談而不是與人交談時會愿意暴露更多信息。“作為心理學家,我們有一套倫理規范。不欺騙,就是這些規范之一。”

來自南加州大學的一個團隊用名為Ellie的虛擬治療師對此進行了測試。 他們發現,如果患有創傷后應激障礙的退伍軍人以為Ellie是個AI系統(而不是由人在操作機器)的時候,更加愿意將他們的癥狀坦誠相告。

但是作為投資者,當然是持相反意見的。

“我不喜歡這樣,”LaPlante對于那些偽裝成提供AI訪問卻實際上雇傭人類的公司發表看法,“對于我來說,這種行為就等于不誠實和欺騙,我不希望我使用的業務涉及任何一點。”他認為公司的運營方式永遠應該保持透明。

而對于人類員工來說,“我不喜歡我們付出的勞動被公司用來欺騙客戶。”

這種道德困境也出現在那些假裝成人類的AI系統上。最近的事件就是Google Duplex機器人助手,能用“嗯……”“啊……”等語氣詞模擬真實生活中的電話,幫助人類預約服務,比如餐館預訂、理發預約等。盡管在餐館預訂位置似乎是個無關大局的交互,但同樣的技術很可能會被壞人用在更有影響的地方。

比如,如果模擬名人或政治家的聲音打電話,那會發生什么后果?

關鍵字:AI

本文摘自:搜狐科技

x AI 崛起?科技公司卻偷偷用人類做機器人的工作! 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

AI 崛起?科技公司卻偷偷用人類做機器人的工作!

責任編輯:zsheng |來源:企業網D1Net  2018-07-18 07:33:03 本文摘自:搜狐科技

人類PK機器人,誰會勝?

現在都在聲稱“人工智能化”,然而為了獲取融資,很多公司卻往往會向投資者隱瞞其對于人類員工的強依賴性。

建立一個人工智能主導的服務很難。太難了,事實上,一些創業公司發現讓人類做機器人的工作,比讓機器人做人類的工作更加簡單。

所以為了獲取融資,一些公司干脆使用專家所謂的“綠野仙蹤”技術,向投資者隱瞞了他們對人類的依賴。有的公司會利用人類來訓練AI系統,有的公司聲稱他們擁有可擴展的AI技術,私下卻還是得偷偷依賴人類。

“偽AI”科技公司實際已經泛濫成災

ReadMe首席執行官Gregory Koberger表示,他遇到過很多“偽AI”:

“讓人來做工作,可以讓項目跳過大量的技術和業務開發挑戰。顯然,這是沒有擴展性的,但這么做可以在早期構建一些東西并跳過困難的部分。”

“這基本上是用人類來構建AI的原型。”

近日華爾街日報就報道了這種類似行徑,并重點提到了Google允許數百個第三方應用開發人員訪問用戶收件箱的消息。其中的一個第三方——Edison Software公司,總部位于圣何塞,他們的人工智能工程師能夠通過數百名用戶的個人電子郵件(用戶的身份被編輯過)來改進“智能回復”功能。該公司沒有提及人類會在其隱私政策中查看用戶的電子郵件。

顯然,報道中提到的這種“偷偷讓人類來做機器的活”的第三方公司遠不止這一個。2008年,一家將語音郵件轉換為短信的公司Spinvox就遭到了指控,它們根本沒有使用機器,仍然使用人工來完成其工作。

2016年,彭博社就曾公開報道過,很多公司的員工每天會花費12小時假裝成聊天機器人,比如為日歷安排服務的X.ai和Clara等等。這項工作令人頭腦麻木,以至于工作人員表示他們期待被機器人取代。

2017年,業務費用管理應用程序Expensify也承認,它其實一直在使用人類員工來轉錄數據,雖然它們對外聲稱的是使用“智能掃描技術”處理的。這些被轉錄的數據還會被發布到亞馬遜Mechanical Turk等眾包勞動工具上,方便低薪工人閱讀和轉錄。

為獲取融資,企業往往選擇“善意的謊言”

事實上,即使是在人工智能上投入巨資的Facebook,在一些工作上還是會依賴人類作為Messenger的虛擬助手。

在某些情況下,人類習慣于訓練AI系統并提高其準確性。一家名為Scale的公司就提供了一系列的人力工作者,為自動駕駛汽車和其他人工智能系統提供培訓數據。例如,“定標器”將查看相機和傳感器反饋,并在框架中標記汽車、行人和騎車人。通過足夠的人體校準,AI才能學會識別這些物體本身。

所以很多情況下,一些公司會偽造“業務智能化”直到它們真正成功——它們會告訴投資者和用戶已經開發了可擴展的AI技術,同時卻秘密地依賴人類。

此前Twitter上就有一個十分諷刺的推文:

如何創立AI創業公司:1、雇一群最低工資的工人偽裝成一個AI機器 ;2、等待AI被發明。——Gregory Koberger @gkoberger

Woebot(一個精神健康輔助聊天機器人)創始人、心理學家Alison Darcy將這種行為描述為“綠野仙蹤設計技術”。

“本質上這就是在模擬終極體驗。而且許多時候,人們談到AI時,窗簾后的其實是個人,而不是算法。”她說。她還提到,構建一個好的AI系統需要“海量的數據”,有時候設計師希望在投資這些數據之前了解是否有足夠的需求。

支持還是反對?

但是,這種方法并不適用于心理學范疇。

研究表明,人們由于對尋求精神健康幫助的羞恥感,在認為自己與機器交談而不是與人交談時會愿意暴露更多信息。“作為心理學家,我們有一套倫理規范。不欺騙,就是這些規范之一。”

來自南加州大學的一個團隊用名為Ellie的虛擬治療師對此進行了測試。 他們發現,如果患有創傷后應激障礙的退伍軍人以為Ellie是個AI系統(而不是由人在操作機器)的時候,更加愿意將他們的癥狀坦誠相告。

但是作為投資者,當然是持相反意見的。

“我不喜歡這樣,”LaPlante對于那些偽裝成提供AI訪問卻實際上雇傭人類的公司發表看法,“對于我來說,這種行為就等于不誠實和欺騙,我不希望我使用的業務涉及任何一點。”他認為公司的運營方式永遠應該保持透明。

而對于人類員工來說,“我不喜歡我們付出的勞動被公司用來欺騙客戶。”

這種道德困境也出現在那些假裝成人類的AI系統上。最近的事件就是Google Duplex機器人助手,能用“嗯……”“啊……”等語氣詞模擬真實生活中的電話,幫助人類預約服務,比如餐館預訂、理發預約等。盡管在餐館預訂位置似乎是個無關大局的交互,但同樣的技術很可能會被壞人用在更有影響的地方。

比如,如果模擬名人或政治家的聲音打電話,那會發生什么后果?

關鍵字:AI

本文摘自:搜狐科技

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 贵德县| 新晃| 延寿县| 延寿县| 锡林浩特市| 山丹县| 舟山市| 桐梓县| 马龙县| 库车县| 合肥市| 凌云县| 汉寿县| 扎赉特旗| 海淀区| 师宗县| 金溪县| 通州区| 德庆县| 八宿县| 河间市| 饶河县| 延吉市| 黔江区| 页游| 宁河县| 双柏县| 海兴县| 获嘉县| 分宜县| 临洮县| 西吉县| 施秉县| 高唐县| 塔河县| 娄烦县| 大余县| 芦山县| 璧山县| 洛隆县| 波密县|