每一次工業(yè)革命都會(huì)引發(fā)效率革命,淘汰掉大批低效率的從業(yè)者。而這一次人工智能革命將對(duì)所有行業(yè)的效率帶來提升,這更加重了人類的焦慮。
誠然,人類對(duì)人工智能產(chǎn)生了很多擔(dān)憂,認(rèn)為它們削弱了“生而為人”的意義。但其實(shí),如果做得好,機(jī)器可以幫助我們學(xué)習(xí)如何成為更好的人。
盡管現(xiàn)在有許多工作都非常適合由人工智能應(yīng)用來做,但很顯然,處理人類情感可能和其中任何一種都不同。人工智能技術(shù)在人類情感領(lǐng)域工作中的應(yīng)用,呈現(xiàn)出人工智能在輔助人類溝通上所發(fā)揮的巨大作用。
“害羞”這個(gè)問題,交給AI解決
保守估計(jì),有75%左右的發(fā)生在工作場所的騷擾或歧視事件未被報(bào)道——做出這項(xiàng)估計(jì)的研究人員發(fā)現(xiàn),人們處理騷擾經(jīng)歷時(shí)最不經(jīng)常使用的方式就是報(bào)案。造成這種情況的原因五花八門,包括對(duì)評(píng)價(jià)或報(bào)復(fù)的恐懼,以及回憶情緒激動(dòng)所帶來的痛苦和困擾。“人類很害羞,他們不一定必須與人交談,所以科技可以幫助解決這個(gè)問題。”倫敦記憶科學(xué)家、《記憶錯(cuò)覺》的作者朱莉亞·肖說。
2018年2月,肖和她的兩位軟件工程師合作伙伴共同推出了Spot,這是一個(gè)基于互聯(lián)網(wǎng)的聊天機(jī)器人,它通過使用人工智能來協(xié)助人們傾訴那些令他們痛苦的事情。該應(yīng)用程序的設(shè)計(jì)是基于心理學(xué)家開發(fā)的一種采訪技術(shù),并由警察局使用以確保記錄的敘述盡可能全面和準(zhǔn)確,它還為報(bào)告事件的人提供了匿名選項(xiàng)。
Spot聊天機(jī)器人從用戶的初始描述中學(xué)習(xí),同時(shí),它也會(huì)從對(duì)某些特定問題的詢問中捕捉用戶的反應(yīng)。在用戶和機(jī)器人共同協(xié)作下,生成帶有時(shí)間標(biāo)記的相關(guān)事件報(bào)告,然后用戶可以選擇將報(bào)告發(fā)送給他所屬的機(jī)構(gòu)或自行保留。截至目前,已有超過50000人訪問了Spot(該網(wǎng)站沒有記錄哪些人繼續(xù)進(jìn)行報(bào)告)。網(wǎng)站全天24小時(shí)開放,因此用戶無需再與人力資源部預(yù)約。
“在這些情況下,證據(jù)確實(shí)很重要,精確度也很重要,”肖說,“Spot有用的原因是它消除了人類交互時(shí)的隔膜。人與人之間的交互不僅存在風(fēng)險(xiǎn),而且還會(huì)在‘存儲(chǔ)’時(shí)導(dǎo)致不一致的問題。”
與人類共情,人工智能有一套
Spot只是機(jī)器學(xué)習(xí)類輔助APP新興市場中的一種工具,它正在努力應(yīng)對(duì)人類情感的巨大主宰力。美國國家經(jīng)濟(jì)研究所的報(bào)告表明,涉及機(jī)器學(xué)習(xí)的美國專利申請(qǐng)數(shù)量從2010年的145個(gè)增加到2016年的594個(gè),到2018年底,活躍的人工智能類創(chuàng)業(yè)公司數(shù)量已經(jīng)是2000年的14倍。其中,越來越多的公司在專門圍繞人類情感設(shè)計(jì)人工智能應(yīng)用。Spot的發(fā)明和使用旨在幫助終止工作場所的歧視現(xiàn)象,但據(jù)肖說,它也是“口袋里的記憶科學(xué)家”,能夠改善我們?nèi)祟惖囊粋€(gè)顯著弱點(diǎn):情緒記憶回溯。
使用機(jī)器學(xué)習(xí)和人工智能來理解和應(yīng)對(duì)人類情感似乎頗具諷刺意味,甚至可能是錯(cuò)誤的行為,但機(jī)器可以在某些特定領(lǐng)域中做到“清晰地”思考,而這對(duì)人類來說是很困難的。
例如,消息傳遞應(yīng)用Ixy,是一款“個(gè)人AI調(diào)解器”,它有助于促進(jìn)文本聊天。它可以預(yù)覽文本,然后告訴用戶如何與別人接觸,旨在消除人與人溝通中存在的焦慮問題。總部位于以色列的Beyond Verbal也已經(jīng)發(fā)布其“情感分析”軟件,這種專利技術(shù)致力于通過人的聲音來解讀其情緒和健康狀況,被用于幫助呼叫中心調(diào)整員工與客戶之間的溝通,同時(shí)能夠幫助公司監(jiān)控員工的士氣,還可以使AI虛擬助手更好地了解用戶的情緒狀態(tài)。
Beyond Verbal首席科學(xué)官約拉姆·萊文農(nóng)(Yoram Levanon)是該技術(shù)的發(fā)明者,他設(shè)想的應(yīng)用更加雄心勃勃,包括通過分析人聲這種生物特征來監(jiān)控人們的身體和情緒狀態(tài)。這款A(yù)PP能夠識(shí)別出我們的說話方式,這或許比我們說的內(nèi)容更加重要。
萊文農(nóng)說:“AI可以幫助我們,但是不能取代我們。我認(rèn)為AI是對(duì)人類起補(bǔ)充輔助的作用。讓AI產(chǎn)生共情,并讓其能夠理解人類的情感,對(duì)于輔助人類來說是至關(guān)重要的。”
一些機(jī)構(gòu)已經(jīng)開始使用類似的人工智能,例如澳大利亞Sherlok公司開發(fā)的音頻深度學(xué)習(xí)技術(shù),布里斯班市議會(huì)使用該技術(shù)掃描電子郵件、信件、論壇討論和語音電話,來揭示呼叫者的“痛點(diǎn)”并提高其員工的技能。另一個(gè)以情緒為導(dǎo)向的人工智能技術(shù)的最佳實(shí)踐是被應(yīng)用于銷售管理,有案例顯示,一家行業(yè)領(lǐng)先的公司用它來檢測(cè)高級(jí)管理層對(duì)季度分析師所呼吁內(nèi)容的應(yīng)對(duì)情緒差異,可以獲得更好的績效洞察力。
誰在背后主宰人工智能?
在這一點(diǎn)上,你可能會(huì)開始聽到“反烏托邦”的警鐘。人們擔(dān)心人工智能將被有效地用來判斷我們的個(gè)性而非我們的表現(xiàn),并且這種判斷不一定正確。人工智能存在的各種偏見問題,很大程度上是因?yàn)闃?gòu)建它的人懷有偏見。開發(fā)人員中有一種說法——“垃圾輸入,垃圾輸出”,這意味著該技術(shù)可能只與其數(shù)據(jù)庫和算法一樣好或一樣公平,而非更好或更公平。
人工智能問題上一個(gè)更引人注目的例子就是微軟的Tay,這款“社交聊天機(jī)器人”在2016年3月推出后的24小時(shí)內(nèi)被迫關(guān)閉。Tay被設(shè)計(jì)為在社交媒體上與真人交談,并根據(jù)之前的互動(dòng)回復(fù)個(gè)性化的內(nèi)容。但是沒有人真正把它看作可靠的聊天對(duì)象,當(dāng)對(duì)方聊到種族主義、歧視女性和同性戀、以及其他極端無禮的內(nèi)容等,聊天機(jī)器人自己很快就開始回復(fù)出難聽的評(píng)論。
Tay的變化不是一個(gè)異常情況。如果AI技術(shù)沒有得到負(fù)責(zé)任的利用,就有可能導(dǎo)致結(jié)果惡化、偏見增加、歧視變強(qiáng),這對(duì)該項(xiàng)技術(shù)來說是一把雙刃劍。
不負(fù)責(zé)任的AI技術(shù)可能導(dǎo)致破壞性的后果。例如,2016年5月,調(diào)查性新聞機(jī)構(gòu)ProPublica發(fā)現(xiàn)美國法院系統(tǒng)中用于確定被告是否可能構(gòu)成風(fēng)險(xiǎn)的算法,錯(cuò)誤地將黑人標(biāo)記為潛在的再審者,其比例是白人的兩倍。在這種情況下,人工智能并不是我們本性中更善良的天使,而是鏡中的魔鬼。
這個(gè)問題的核心在于算法工程師中男性白種人占據(jù)了壓倒性優(yōu)勢(shì)。技術(shù)應(yīng)該是在一種無偏見的真空中設(shè)計(jì)的,不應(yīng)受到其他視角的影響。無意識(shí)的偏見滋生,可能會(huì)對(duì)諸如招聘軟件之類的工具產(chǎn)生不良后果,事實(shí)上,我們已經(jīng)發(fā)現(xiàn)這些工具致使某些求職者處于不利地位。還有另一個(gè)問題就是這是我們想要的結(jié)果嗎?今年年初,亞馬遜獲得兩項(xiàng)追蹤手環(huán)的專利,這種智能手環(huán)可以監(jiān)控員工行蹤,由此引發(fā)了爭議。
人工智能使我們成為更好的人?
麥卡高(McCargow)說:“我們還在大山的山麓位置,越來越多的企業(yè)正在開發(fā)和試用AI技術(shù),但不一定將其大范圍應(yīng)用于企業(yè)中。我認(rèn)為關(guān)鍵的是,它雖然可能還不會(huì)對(duì)勞動(dòng)力產(chǎn)生重大影響,但為了未來,我們現(xiàn)在就要考慮清楚。”
這個(gè)未來已經(jīng)到來。Spot應(yīng)用程序?yàn)槿藗兲峁┝艘环N記錄和澄清其被騷擾報(bào)告的方法, Ixy可以提供移動(dòng)聊天的實(shí)時(shí)反饋以幫助用戶進(jìn)行無障礙交流,Beyond Verbal希望幫助人們?cè)趯?duì)話的線路之間進(jìn)行聆聽,以便于更理解對(duì)方。越來越多的新技術(shù)涌現(xiàn),這些只是其中的冰山一角,它們的目的就是幫助用戶駕馭人類的情感漩渦。未來還會(huì)有更多人工智能應(yīng)用程序出現(xiàn),我們可以依靠它們。
歷史上大多數(shù)技術(shù)——印刷機(jī)、紡織廠、電話等對(duì)工人的變革都是巨大且微妙的,塑造了一個(gè)變化卻仍可辨認(rèn)的景觀。人工智能的所有變革意義都與其之前的技術(shù)變革相似。正如麥卡高所提出的,人們對(duì)侵蝕我們?nèi)诵缘臋C(jī)器產(chǎn)生了很多擔(dān)憂,認(rèn)為這些機(jī)器削弱了人類的意義。但事實(shí)并非如此。如果做得好的話,機(jī)器可以幫助我們學(xué)習(xí)如何成為更好的人。