“使用人工完成某些工作可以讓公司不用應(yīng)付大量的技術(shù)和業(yè)務(wù)開發(fā)挑戰(zhàn)。很明顯,這么做不具有規(guī)模性,但你確實(shí)可以在一開始直接越過很多困難的部分,”ReadMe的首席執(zhí)行官Gregory Koberger說,他說他遇到了很多“偽人工智能”。
《華爾街日報》(Wall Street Journal)本周發(fā)表的一篇文章將此類事件推到了了風(fēng)口浪尖,文中著重介紹了谷歌對數(shù)百名第三方應(yīng)用程序開發(fā)人員訪問人們的郵箱大開綠燈。
總部位于圣何塞的Edison Software公司,其人工智能工程師對數(shù)百名用戶的個人電子郵件信息進(jìn)行了修改,修改了他們的身份,以改進(jìn)“智能回復(fù)”功能。但并未提及這一行為是否侵犯了用戶的隱私權(quán)。
《華爾街日報》刊載的文章中還強(qiáng)調(diào),此種針對郵箱信息的行為遠(yuǎn)非第一次。2008年,將語音郵件轉(zhuǎn)換為短信的Spinvox公司被指控在海外呼叫中心使用人類而不是機(jī)器來完成工作。
2016年,《彭博商業(yè)周刊》揭露了有些公司雇人每天花12個小時假裝聊天機(jī)器人或者智能助手,為客戶進(jìn)行日程安排等服務(wù)。這是一份令人麻木而疲憊的工作,員工們紛紛表示他們真的期待有機(jī)器人頂替自己的位置。
2017年,企業(yè)費(fèi)用管理程序提供商Expensify公司承認(rèn),它此前聲稱的使用“Smart Scan”技術(shù)的收據(jù)處理工作,至少有一部分是人工完成的。這些收據(jù)的掃描結(jié)果被發(fā)給了亞馬遜的Mechanical Turk公司,在這家公司的眾包勞動工具上,這些收據(jù)其實(shí)是由低薪酬雇來的員工們處理并謄寫的。
“我想知道,那些使用了Expensify公司Smart Scan產(chǎn)品的用戶是否知道它們的數(shù)據(jù)是由MTurk的員工輸入的,”Rochelle LaPlante說,他正是一個Turk公司的一員,“我可以查看某個人的優(yōu)步收據(jù),上面有他們的全名和接送地址。”
就連在人工智能領(lǐng)域投入巨資的Facebook,也依賴“偽人工智能”的服務(wù)。
在某些情況下,人類被用來訓(xùn)練人工智能系統(tǒng)并提高它的準(zhǔn)確性。一家名為Scale的公司為一群人類員工提供了自動駕駛汽車和其他人工智能驅(qū)動系統(tǒng)的培訓(xùn)數(shù)據(jù)。例如,人工智能訓(xùn)練人員會查看攝像頭或傳感器,并標(biāo)注汽車、行人和騎自行車的人。有了足夠的人工校準(zhǔn),人工智能將學(xué)會識別這些物體本身。
但在其他情況下,公司會謊稱自己已經(jīng)在使用人工智能了,然后告訴投資者和用戶說自己已經(jīng)開發(fā)出了便利的人工智能服務(wù),但私下里卻在秘密地依賴真人。
Gregory Koberger(@gkoberger)
如建立一個人工智能創(chuàng)業(yè)公司?
首先,雇傭一批廉價勞動力,讓他們假裝自己是人工智能,然后為客戶提供服務(wù);
其次,等著人工智能真的被發(fā)明出來。
March 1, 2016
心理學(xué)家、Woebot(一種旨在解決人們心理健康問題的聊天機(jī)器人)的創(chuàng)始人Alison Darcy將其稱為為“奧茲國設(shè)計技術(shù)的巫師”。
“說實(shí)話,很多時候你以為是人工智能,但其實(shí)屏幕的那一邊是個真實(shí)存在的人,而不是什么算法,”她補(bǔ)充說,要想建立起良好的人工智能系統(tǒng),“大量的數(shù)據(jù)”不可或缺,而很多時候設(shè)計師們在投資之前,會想知道是否有足夠的服務(wù)需求。
她說,這種方法不適用于像Woebot這樣的心理服務(wù)。
“作為心理學(xué)家,我們受到道德準(zhǔn)則的約束。而不欺騙是很明顯的道德準(zhǔn)則之一。”
研究表明,當(dāng)人們認(rèn)為自己是在和機(jī)器交談而不是與人交談時,他們往往會透露更多信息,因?yàn)閷で笮睦斫】祹椭鷷硪环N恥辱感。
來自南加利福尼亞大學(xué)(University of Southern California)的一個研究小組通過一個名為Ellie的虛擬治療師測試了這個結(jié)果。他們發(fā)現(xiàn),當(dāng)退伍軍人知道Ellie是人工智能系統(tǒng)時,他們更容易打開心扉,說出自己的癥狀。
另一些人則認(rèn)為,公司應(yīng)該對其服務(wù)的運(yùn)作方式始終保持透明。
一家用人工假裝人工智能提供服務(wù)的公司的員工LaPlante說:“我不喜歡這樣,對我來說,這是不誠實(shí)的。而且就工作方面講,我們感覺自己被雪藏了起來。自己的價值并沒有得到重視。我不喜歡我的勞動被這種對客戶滿口謊言的公司利用。”
其實(shí),在人工智能自己是人類并提供服務(wù)的時候,同樣引發(fā)了這種道德上的困惑。最典型的例子莫過于例子是谷歌的這是一個機(jī)器人助手Duplex,它可以用“嗯”和“呃”等詞句來完成極其逼真的對話和預(yù)約。
經(jīng)歷了強(qiáng)烈反對之后,谷歌表示自己的人工智能助手會向交談過的人類表明自己的真實(shí)身份。
Darcy說:“在這種低影響的對話中,你可能會覺得這么點(diǎn)兒小花招無傷大雅。”
但是,如果這種瞞天過海的技術(shù)被一些別有用心的人用來做一些違法亂紀(jì)的事情呢?
Darcy說:“考慮到人工智能已經(jīng)讓人產(chǎn)生了很大的恐懼,在缺乏透明度的情況下,它更不能真正幫助人們進(jìn)行對話了。”