現在都在聲稱“人工智能化”,然而為了獲取融資,很多公司卻往往會向投資者隱瞞其對于人類員工的強依賴性。
建立一個人工智能主導的服務很難。太難了,事實上,一些創業公司發現讓人類做機器人的工作,比讓機器人做人類的工作更加簡單。
所以為了獲取融資,一些公司干脆使用專家所謂的“綠野仙蹤”技術,向投資者隱瞞了他們對人類的依賴。有的公司會利用人類來訓練AI系統,有的公司聲稱他們擁有可擴展的AI技術,私下卻還是得偷偷依賴人類。
“偽AI”科技公司實際已經泛濫成災
ReadMe首席執行官Gregory Koberger表示,他遇到過很多“偽AI”:
“讓人來做工作,可以讓項目跳過大量的技術和業務開發挑戰。顯然,這是沒有擴展性的,但這么做可以在早期構建一些東西并跳過困難的部分。”
“這基本上是用人類來構建AI的原型。”
近日華爾街日報就報道了這種類似行徑,并重點提到了Google允許數百個第三方應用開發人員訪問用戶收件箱的消息。其中的一個第三方——Edison Software公司,總部位于圣何塞,他們的人工智能工程師能夠通過數百名用戶的個人電子郵件(用戶的身份被編輯過)來改進“智能回復”功能。該公司沒有提及人類會在其隱私政策中查看用戶的電子郵件。
顯然,報道中提到的這種“偷偷讓人類來做機器的活”的第三方公司遠不止這一個。2008年,一家將語音郵件轉換為短信的公司Spinvox就遭到了指控,它們根本沒有使用機器,仍然使用人工來完成其工作。
2016年,彭博社就曾公開報道過,很多公司的員工每天會花費12小時假裝成聊天機器人,比如為日歷安排服務的X.ai和Clara等等。這項工作令人頭腦麻木,以至于工作人員表示他們期待被機器人取代。
2017年,業務費用管理應用程序Expensify也承認,它其實一直在使用人類員工來轉錄數據,雖然它們對外聲稱的是使用“智能掃描技術”處理的。這些被轉錄的數據還會被發布到亞馬遜Mechanical Turk等眾包勞動工具上,方便低薪工人閱讀和轉錄。
為獲取融資,企業往往選擇“善意的謊言”
事實上,即使是在人工智能上投入巨資的Facebook,在一些工作上還是會依賴人類作為Messenger的虛擬助手。
在某些情況下,人類習慣于訓練AI系統并提高其準確性。一家名為Scale的公司就提供了一系列的人力工作者,為自動駕駛汽車和其他人工智能系統提供培訓數據。例如,“定標器”將查看相機和傳感器反饋,并在框架中標記汽車、行人和騎車人。通過足夠的人體校準,AI才能學會識別這些物體本身。
所以很多情況下,一些公司會偽造“業務智能化”直到它們真正成功——它們會告訴投資者和用戶已經開發了可擴展的AI技術,同時卻秘密地依賴人類。
此前Twitter上就有一個十分諷刺的推文:
如何創立AI創業公司:1、雇一群最低工資的工人偽裝成一個AI機器 ;2、等待AI被發明。——Gregory Koberger @gkoberger
Woebot(一個精神健康輔助聊天機器人)創始人、心理學家Alison Darcy將這種行為描述為“綠野仙蹤設計技術”。
“本質上這就是在模擬終極體驗。而且許多時候,人們談到AI時,窗簾后的其實是個人,而不是算法。”她說。她還提到,構建一個好的AI系統需要“海量的數據”,有時候設計師希望在投資這些數據之前了解是否有足夠的需求。
支持還是反對?
但是,這種方法并不適用于心理學范疇。
研究表明,人們由于對尋求精神健康幫助的羞恥感,在認為自己與機器交談而不是與人交談時會愿意暴露更多信息。“作為心理學家,我們有一套倫理規范。不欺騙,就是這些規范之一。”
來自南加州大學的一個團隊用名為Ellie的虛擬治療師對此進行了測試。 他們發現,如果患有創傷后應激障礙的退伍軍人以為Ellie是個AI系統(而不是由人在操作機器)的時候,更加愿意將他們的癥狀坦誠相告。
但是作為投資者,當然是持相反意見的。
“我不喜歡這樣,”LaPlante對于那些偽裝成提供AI訪問卻實際上雇傭人類的公司發表看法,“對于我來說,這種行為就等于不誠實和欺騙,我不希望我使用的業務涉及任何一點。”他認為公司的運營方式永遠應該保持透明。
而對于人類員工來說,“我不喜歡我們付出的勞動被公司用來欺騙客戶。”
這種道德困境也出現在那些假裝成人類的AI系統上。最近的事件就是Google Duplex機器人助手,能用“嗯……”“啊……”等語氣詞模擬真實生活中的電話,幫助人類預約服務,比如餐館預訂、理發預約等。盡管在餐館預訂位置似乎是個無關大局的交互,但同樣的技術很可能會被壞人用在更有影響的地方。
比如,如果模擬名人或政治家的聲音打電話,那會發生什么后果?