建立一個由人工智能驅動的服務很難。所以事實上一些初創公司已經研究出更便宜、更容易讓人類像機器人一樣行動,而不是讓機器像人類一樣行事。
“用人來完成這項工作可以讓您跳過大量的技術和業務開發挑戰。顯然,它不會擴展,但它允許你在早期構建一些東西并跳過困難部分,”ReadMe的首席執行官Gregory Koberger說,他說他就遇到了很多“偽AI”,“這基本上是人與人工智能的原型。”
一些公司使用人來訓練AI系統;其他人在聲稱擁有可擴展的AI技術時暗中依賴他們。
什么?讓人偽裝聊天機器人?
用偽人工智能這一做法出現在本周華爾街日報靠前的一篇文章中,文章強調Google允許數百名第三方應用開發者訪問人們的收件箱。
在總部位于圣何塞的公司Edison Software,他們的人工智能工程師瀏覽了數百名用戶的個人電子郵件 -以用戶的身份認證 - 來改進“智能回復”功能。該公司沒有提及在其隱私政策中人們可以查看用戶的電子郵件。
“華爾街日報”文章中強調的第三方遠非第一批做到這一點的。早在2008年,一家將語音郵件轉換為短信的公司Spinvox被指控他們用人工在海外呼叫中心完成工作而不是機器。
2016年,彭博社強調了人們每天花12小時假裝為聊天機器人做日歷安排服務(如X.ai和Clara)的困境。這項工作讓人頭腦麻木,雇員表示他們期待被機器人取代。
2017年,企業費用管理應用程序Expensify承認,它一直使用人工來轉錄一些收據,并聲稱是“智能掃描技術”處理的。具體的做法是:收據的掃描件被發布到亞馬遜的Mechanical Turk眾包勞動工具上,由低薪工人來閱讀和轉錄。
“我想知道Expensify SmartScan用戶是否知道Mechanical Turk工作人員會收到他們的收據,”推特上一位“Turker”和零工經濟工作者倡導者Rochelle LaPlante說道,“我正在看某個人的優步全名收據,還有接送他的地點。”
即使是在人工智能上投入巨資的Facebook也依賴人類作為其Messenger M 的虛擬助手。
該不該利用人力偽裝人工智能呢?
在某些情況下,人類習慣于訓練AI系統并提高其準確性。一家名為Scale的公司提供很多人力工作者為自動駕駛汽車和其他人工智能系統提供訓練數據。比如,“定標器”會查看相機或傳感器反饋,然后在框架中標記汽車,行人和騎車人。通過足夠的人工校準,AI能夠學習識別這些物體本身。
在其他情況下,公司會一直靠偽人工智能直到真的實現。他們告訴投資者和用戶他們已經開發了可擴展的AI技術,然后同時秘密地依賴人類智能。
心理學家、心理健康支持聊天機器人Woebot創始人艾莉森·達西(Alison Darcy)將此描述為“綠野仙蹤設計技術”。
“你可以模擬某種東西的終極體驗。在人工智能領域,很多時候是幕后有人而不是算法,”她說,還補充說建立一個良好的人工智能系統需要“非常巨大的數據”,有時設計師想知道投資之前是否有足夠的服務需求。
她說,這種方法不適合像Woebot這樣的心理支持服務。
“作為心理學家,我們遵循道德準則。不欺騙人是非常明顯的道德原則之一。“
研究表明,當人們認為他們正在與一臺機器而不是一個人交談時,他們傾向于透露更多信息,因為為自己尋求心理健康幫助是一種恥辱。
來自南加州大學的一個團隊用名為Ellie的虛擬治療師對此進行了測試。他們發現,患有創傷后應激障礙的退伍軍人更有可能在他們知道艾莉是一個人工智能系統而不是被告知有人在操作機器時泄露他們的癥狀。
其他人則認為公司應始終對其服務運營方式保持透明。
“我不喜歡那樣,”對于那些假裝提供人工智能服務但實際雇用人力的公司,LaPlante如是說, “這對我來說感覺不誠實和被欺騙,這些都不是我想從我正在使用的業務中得到的東西。
“而在工人方面,感覺我們被推到了幕后。我不喜歡我的勞動力被一家公司利用,他們會轉而向客戶撒謊到底發生了什么。”
這種道德上的窘境也引發了人為的AI系統。最近的一個例子是Google Duplex,這是一個機器人助手,可以通過“ums”和“ers”完成令人毛骨悚然的逼真電話,預約約會和完成一些預訂任務。
在最初強烈反對之后,谷歌表示其人工智能會向與之對話的人表明身份。
“在他們的演示版本中,在低影響力的對話中感覺有點欺騙性,”達西說。雖然在餐廳預訂餐桌可能看起來像是一個低風險的互動,但同樣的技術在錯誤的手上可能更具操控性。
例如,如果你可以制作模擬名人或政治家聲音的逼真電話,會發生什么?
達西說:“人工智能已經存在很大的恐懼,而且當缺乏透明度時,它并沒有真正幫助對話。”