人工智能正在迅速的進(jìn)入工作場(chǎng)所。因?yàn)槿斯ぶ悄苣軌蛟谒查g做出明智的預(yù)測(cè),并以人類(lèi)無(wú)法匹敵的規(guī)模完成特定任務(wù),因而正在被應(yīng)用于從業(yè)務(wù)流程到分析的所有領(lǐng)域。
雖然人工智能對(duì)工作場(chǎng)所的影響的大部分審查都集中在適合替換的工作類(lèi)型上,但是人工智能專(zhuān)門(mén)針對(duì)勞動(dòng)力問(wèn)題的努力,比如進(jìn)行求職者篩選和績(jī)效評(píng)估,出現(xiàn)了特別棘手的問(wèn)題——尤其是當(dāng)機(jī)器人開(kāi)始進(jìn)入管理領(lǐng)域的時(shí)候。
誠(chéng)然,以員工為中心的人工智能具有顯著的優(yōu)勢(shì),但短期內(nèi)人工智能推動(dòng)的生產(chǎn)率或安全性的提高,從長(zhǎng)遠(yuǎn)來(lái)看可能會(huì)適得其反,員工不滿和士氣低落都會(huì)導(dǎo)致更高的人員流動(dòng)率,并最終導(dǎo)致生產(chǎn)率的下降。此外,人工智能的影響還可能會(huì)導(dǎo)致公關(guān)問(wèn)題,讓客戶、投資者和求職者失去興趣,更不用說(shuō)可能違反工作場(chǎng)所隱私的法律和合規(guī)問(wèn)題了。
以下是對(duì)工作場(chǎng)所出現(xiàn)的新人工智能技術(shù)的研究,它們是如何工作的,它們的意圖是什么,以及它們可能會(huì)在何時(shí)越界。
篩選你的工作申請(qǐng)
上個(gè)月,亞馬遜(Amazon)取消了一款基于人工智能(AI)的招聘工具,因?yàn)樗鼘?duì)女性存在偏見(jiàn)。事實(shí)證明,當(dāng)一家公司的開(kāi)發(fā)者大多是白人男性時(shí),他們開(kāi)發(fā)的人工智能得出的結(jié)論就很可能是,白人男性比其他人群更適合這家公司。如果將性別從考慮范圍中剔除,人工智能也將找到實(shí)現(xiàn)同樣目標(biāo)的代理措施。
但這并沒(méi)有阻止其他公司將人工智能應(yīng)用于簡(jiǎn)歷篩選。例如,Oracle正在推出自己的工具來(lái)尋找“最適合”的候選人,Oracle負(fù)責(zé)自適應(yīng)智能應(yīng)用程序的副總裁Melissa Boxer說(shuō)。
“我們總是喝著自己的香檳,”Boxer表示。甲骨文(Oracle)是一家數(shù)據(jù)公司,希望向其客戶銷(xiāo)售各種人工智能工具。 “這是不可談判的問(wèn)題之一。我們?cè)诠緝?nèi)部推出了我們正在開(kāi)發(fā)的產(chǎn)品。”
Boxer說(shuō),Oracle雇傭了很多人,所以這是一個(gè)很好的起點(diǎn)。但人力資源員工不得不費(fèi)力處理大量的員工。“我們?nèi)绾尾拍茏屵@項(xiàng)工作變得更輕松,并確保我們雇傭了合適的人才?”
此外,但無(wú)意識(shí)的偏見(jiàn)、數(shù)據(jù)隱私和其他道德問(wèn)題也是其中人們最關(guān)心的問(wèn)題。
“我們有一個(gè)道德委員會(huì),”Boxer說(shuō)。 “他們負(fù)責(zé)建立機(jī)器學(xué)習(xí)公平性的最佳實(shí)踐,以及相關(guān)的問(wèn)責(zé)制和透明度概念。”
例如,其中包括哪些類(lèi)型的個(gè)人數(shù)據(jù)可能會(huì)或可能不會(huì)用作學(xué)習(xí)過(guò)程的一部分的指導(dǎo)原則。
她還表示,Oracle致力于讓人工智能變得可以解釋——努力解決人工智能的“黑箱”問(wèn)題。“我們已經(jīng)在應(yīng)用程序中設(shè)置了一系列監(jiān)督控制措施,以促進(jìn)透明度和問(wèn)責(zé)制。”
Boxer說(shuō),Oracle還計(jì)劃推出向員工提供推薦服務(wù)的工具。例如,銷(xiāo)售人員可能會(huì)得到關(guān)于下一位最有希望成為潛在客戶的建議。Boxer說(shuō),雖然使用人工智能來(lái)建議員工要承擔(dān)的任務(wù)可能會(huì)產(chǎn)生一系列負(fù)面影響,但Oracle的目標(biāo)是讓員工更容易完成工作。
“這不僅僅是讓AI來(lái)提醒你需要做的事情,”她說(shuō)。 “它讓員工更深入的了解了他們的銷(xiāo)售渠道。以及我們是否專(zhuān)注于正確的機(jī)會(huì)?”
接聽(tīng)服務(wù)臺(tái)電話
在電影中,當(dāng)人工智能與人類(lèi)對(duì)話時(shí),結(jié)局往往很糟糕。比如,Hal 9000,還有終結(jié)者。但這也會(huì)發(fā)生在現(xiàn)實(shí)生活中。最著名的是,在2015年,微軟的Tay聊天機(jī)器人僅僅在互聯(lián)網(wǎng)上曝光了幾個(gè)小時(shí),就變成了一個(gè)種族主義者。
大多數(shù)公司正在以更可控的方式部署聊天機(jī)器人——例如,用于客戶服務(wù)或技術(shù)服務(wù)臺(tái)。
本月,微軟(Microsoft)宣布將正面解決這個(gè)問(wèn)題,發(fā)布了一套建立負(fù)責(zé)聊天機(jī)器人的指導(dǎo)方針。
例如,該公司表示,用戶應(yīng)該清楚,他們是在與聊天機(jī)器人交談,而不是與另一個(gè)人交談。當(dāng)對(duì)話進(jìn)行得不順利時(shí),聊天機(jī)器人應(yīng)該迅速將問(wèn)題轉(zhuǎn)到真人身上。
其中還包括了一個(gè)關(guān)于確保機(jī)器人有內(nèi)置的安全措施來(lái)防止其被濫用,并對(duì)濫用或攻擊性用戶做出適當(dāng)反應(yīng)的章節(jié)。
“承認(rèn)你的機(jī)器人的局限性,確保你的機(jī)器人堅(jiān)持著它的設(shè)計(jì)目的,”微軟公司負(fù)責(zé)會(huì)話AI的副總裁Lili Cheng在一篇博客文章中寫(xiě)道。 例如,一個(gè)專(zhuān)為點(diǎn)披薩而設(shè)計(jì)的機(jī)器人應(yīng)該避免涉及種族、性別、宗教和政治等敏感話題。
這些準(zhǔn)則還涉及了可靠性、公平性和隱私問(wèn)題。
評(píng)估你的表現(xiàn)
今年夏天,彭博社(Bloomberg)報(bào)道稱(chēng),IBM正利用其人工智能平臺(tái)沃森(Watson)來(lái)評(píng)估員工的表現(xiàn),甚至是預(yù)測(cè)其未來(lái)的表現(xiàn)。然后,這些評(píng)級(jí)將被經(jīng)理們用于獎(jiǎng)金、薪酬和晉升決策。
IBM聲稱(chēng)其準(zhǔn)確率為96%,但是在員工評(píng)估中引入人工智能并提出注意事項(xiàng)可能會(huì)引起關(guān)注。畢竟,你需要知道當(dāng)它出錯(cuò)時(shí)你該怎么辦?還有很多事情可能會(huì)出錯(cuò),特別是如果這項(xiàng)技術(shù)沒(méi)有被正確推廣的話。
“我們可以設(shè)計(jì)一個(gè)用于績(jī)效評(píng)估的人力資源系統(tǒng),該系統(tǒng)可以與智能算法一起運(yùn)行,從個(gè)人過(guò)去的行為中學(xué)習(xí),或者進(jìn)行某種測(cè)試來(lái)衡量他們的決策能力,”來(lái)自瑞爾森大學(xué)的一位教授表示。 “無(wú)論它是什么,如果設(shè)計(jì)不當(dāng),它就可能會(huì)有很大的偏差,而且最終可能會(huì)給出錯(cuò)誤的建議。”
為了避免問(wèn)題,任何這樣的系統(tǒng)都應(yīng)該從一開(kāi)始就具有透明度。
“這個(gè)模型的每一步都應(yīng)該得到公司的驗(yàn)證,所以他們不會(huì)處理任何黑盒算法,”她說(shuō)。對(duì)于內(nèi)部開(kāi)發(fā)的系統(tǒng)和商用工具來(lái)說(shuō)都是如此。
她表示,該算法的大部分設(shè)計(jì)也可能是主觀的,比如決定是否推薦時(shí)要考慮哪些因素。她說(shuō),這些設(shè)計(jì)決策需要與使用該技術(shù)的人分享,并且需要被相關(guān)人員理解。
她說(shuō):“如果你還記得金融危機(jī),那里就涉及到了人們無(wú)法理解和審計(jì)的復(fù)雜的數(shù)學(xué)問(wèn)題。他們看不出到底出了什么問(wèn)題。”
除了檢查算法是否如設(shè)計(jì)的那樣工作,公司還應(yīng)該確保使用了正確的數(shù)據(jù)集,并且系統(tǒng)能夠識(shí)別出何時(shí)存在數(shù)據(jù)不足,或者數(shù)據(jù)不合適的問(wèn)題。
對(duì)于績(jī)效評(píng)估,考慮到每個(gè)工作類(lèi)別需要不同的標(biāo)準(zhǔn),并且這些標(biāo)準(zhǔn)可能會(huì)因部門(mén)或其他因素而變化,數(shù)據(jù)集在許多情況下可能不充分,或者存在過(guò)度代表某些類(lèi)別而犧牲其他類(lèi)別的問(wèn)題。
Bener說(shuō):“人工智能術(shù)語(yǔ)中還有一種叫做概念漂移的東西,這意味著今天我的模型假設(shè)是正確的,但是事情發(fā)生了變化,我的數(shù)據(jù)發(fā)生了變化,我的環(huán)境發(fā)生了變化,我的客戶也發(fā)生了變化。因?yàn)檎麄€(gè)系統(tǒng)也就有了一個(gè)漂移,我需要重新審視算法來(lái)校準(zhǔn)它并再次進(jìn)行優(yōu)化。”
“審計(jì)非常重要,”她說(shuō)。“但我認(rèn)為目前的審計(jì)系統(tǒng)沒(méi)有很好地涵蓋這些算法,因?yàn)槭苓^(guò)培訓(xùn)的人不夠多。”
她表示,審計(jì)師需要10到15年的經(jīng)驗(yàn),才能熟練地評(píng)估人工智能算法,而且現(xiàn)在還為時(shí)過(guò)早。“我們沒(méi)有那樣的人。”
管理你的工作
擔(dān)心你的老板可能會(huì)被人工智能取代,而你很快就要為機(jī)器人工作?對(duì)一些人來(lái)說(shuō),這種未來(lái)已經(jīng)到來(lái)。
擁有15年工作經(jīng)驗(yàn)的軟件開(kāi)發(fā)人員Paulo Eduardo Lobo就職于巴西巴拉那州政府。但最近,他還在科技供應(yīng)商Zerocracy做自由職業(yè)者,該公司用人工智能取代了項(xiàng)目經(jīng)理。
AI會(huì)根據(jù)開(kāi)發(fā)人員的聲譽(yù)和其他因素分配項(xiàng)目任務(wù)。他們還會(huì)設(shè)定時(shí)間表,預(yù)測(cè)交付時(shí)間,并計(jì)算預(yù)算。
Lobo說(shuō):“我們不需要開(kāi)會(huì)或人為干預(yù)來(lái)給團(tuán)隊(duì)成員分配任務(wù)。”此外,他還說(shuō),這有助于鼓舞士氣。“我們沒(méi)有人試圖取悅項(xiàng)目經(jīng)理,因?yàn)檫@是一個(gè)人工智能,另一方面,人工智能也不會(huì)浪費(fèi)時(shí)間以試圖取悅團(tuán)隊(duì)成員或提高士氣。”
它有助于公司使用一種編程方法,使項(xiàng)目可以很容易地分割成小任務(wù),通常持續(xù)時(shí)間不超過(guò)30分鐘。
但Lobo說(shuō),有些任務(wù)還不能自動(dòng)化,例如確定項(xiàng)目的范圍。 “必須有人來(lái)定義我們的軟件將要做什么,以及我們首先要做什么,”他說(shuō)。此外,人們?nèi)匀恍枰u(píng)估代碼質(zhì)量,并在出現(xiàn)問(wèn)題時(shí)承擔(dān)責(zé)任。
Zerocracy的軟件架構(gòu)師Kirill Chernyavsky表示,如果某個(gè)任務(wù)是由不急于完成的開(kāi)發(fā)人員承擔(dān)的,那么可能還需要人工干預(yù)。
人工智能驅(qū)動(dòng)的項(xiàng)目管理是一個(gè)新的想法,但可能很難推廣。“客戶更喜歡傳統(tǒng)的管理,因?yàn)闀r(shí)間證明了這一點(diǎn),”他說(shuō)。
總部位于帕洛阿爾托的Zerologin成立于兩年前,自去年春天以來(lái)一直在使用其AI系統(tǒng),現(xiàn)在已經(jīng)有五個(gè)客戶在使用該系統(tǒng)。但首席執(zhí)行官Yegor Bugayenko表示,開(kāi)發(fā)人員已經(jīng)為AI工作了大約一年。目前有60名開(kāi)發(fā)人員在這個(gè)平臺(tái)上工作,其中一些是Zerocracy的員工,一些是自由職業(yè)者,其余的是客戶公司的員工。
“最初,當(dāng)人們開(kāi)始在機(jī)器人管理下工作時(shí),他們會(huì)感到驚訝,并產(chǎn)生懷疑,”他說(shuō)。“他們認(rèn)為電腦不可能告訴他們?cè)撟鍪裁础?rdquo;
監(jiān)視你的行動(dòng)
今年早些時(shí)候,亞馬遜(Amazon)被迫公開(kāi)否認(rèn)正在為一款追蹤倉(cāng)庫(kù)工人行為的設(shè)備申請(qǐng)專(zhuān)利。該公司在一份聲明中說(shuō):“有關(guān)這項(xiàng)專(zhuān)利的猜測(cè)是錯(cuò)誤的。”相反,其腕帶跟蹤系統(tǒng)將被用作手持掃描儀的替代品。
隨著一年來(lái)有關(guān)亞馬遜倉(cāng)庫(kù)虐待員工情況的報(bào)道不斷傳來(lái),這種保證變得不那么令人信服,其中包括了對(duì)員工是否可以上廁所的限制。
當(dāng)然,想要不惜一切代價(jià)實(shí)現(xiàn)效率最大化的公司不需要等待亞馬遜的腕帶上市。Insight的主管Jeff Dodge表示,視頻攝像頭與圖像識(shí)別技術(shù)的結(jié)合,可以同樣容易地追蹤到員工的動(dòng)作。Insight是一家總部位于丹佛的技術(shù)咨詢和系統(tǒng)集成公司。
“如果你是一名員工,并且你在一個(gè)有攝像頭的空間里,你的雇主實(shí)際上是在觀察、分析你的每一個(gè)動(dòng)作、每一個(gè)行動(dòng),”他說(shuō)。
除了某些特定的法規(guī)遵從性相關(guān)的情況外,這在今天是完全合法和可能的。
這種監(jiān)視可以是完全無(wú)害的——例如,出于安全目的,或?yàn)榱藥椭鷥?yōu)化辦公室布局。Dodge說(shuō),這就是公司目前使用它的方式。
“我們經(jīng)常與客戶交談,不是談?wù)撌裁词强赡艿模钦務(wù)撌裁词钦_的,什么是道德上正確的,”他說(shuō)。
他說(shuō),是的,我們有可能追蹤每個(gè)員工在洗手間花了多少時(shí)間。“但人們非常清楚,如果他們這樣做了,而有人發(fā)現(xiàn)了,那將帶來(lái)一個(gè)非常負(fù)面的新聞后果。”
Dodge說(shuō),關(guān)鍵是要與員工開(kāi)誠(chéng)布公地討論人工智能項(xiàng)目的目的。“‘嘿,我們正在考慮把洗手間建在更方便使用的地方,但要做到這一點(diǎn),我們必須監(jiān)控人們會(huì)去哪兒。’如果你確實(shí)得到了支持,那么對(duì)于誰(shuí)有權(quán)訪問(wèn)這些數(shù)據(jù)的透明度對(duì)于建立信任來(lái)說(shuō)同樣重要。如果被發(fā)現(xiàn)某些人工智能正在做出幫助管理的決策,而且你擁有一個(gè)將我們與他們相比的環(huán)境,那么信任就蕩然無(wú)存了,”他說(shuō)。
監(jiān)控不一定局限于視頻監(jiān)控。公司還可以訪問(wèn)員工的電子郵件、網(wǎng)頁(yè)瀏覽記錄以及大量其他的行為數(shù)據(jù)。
衡量你的忠誠(chéng)度
情緒分析包括使用分析來(lái)確定人們是否對(duì)公司或產(chǎn)品有好感。同樣的技術(shù)也可以用在員工身上,只不過(guò)這里的公司不僅可以訪問(wèn)他們的公共社交媒體檔案,還可以訪問(wèn)他們所有的內(nèi)部通信。
如果做得恰當(dāng),情感分析可能會(huì)對(duì)一家公司有用,而不會(huì)造成侵害。
“幾乎每家大型企業(yè)都使用凈推薦值評(píng)分,”Dodge說(shuō)。 “這是衡量人們是否會(huì)對(duì)一個(gè)機(jī)構(gòu)進(jìn)行積極評(píng)價(jià)的一種衡量標(biāo)準(zhǔn)。他們是否會(huì)出去說(shuō)'這是一個(gè)很棒的地方;你應(yīng)該來(lái)這里工作'?或者他們是網(wǎng)絡(luò)上的詆毀者?”
這項(xiàng)技術(shù)的一個(gè)具體應(yīng)用是預(yù)測(cè)哪些員工可能離開(kāi)一家公司,例如,他們正在瀏覽求職網(wǎng)站,發(fā)送簡(jiǎn)歷,或者比平時(shí)發(fā)送更多帶有附件的電子郵件到個(gè)人賬戶。
一位不愿透露姓名的財(cái)富500強(qiáng)公司的高級(jí)信息安全專(zhuān)家表示,這很容易做到。這位專(zhuān)業(yè)人士說(shuō)他已經(jīng)做了十年了,而且非常可靠。
例如,這種技術(shù)可以被無(wú)害地使用,以確保專(zhuān)有信息不會(huì)離開(kāi)公司,這就是安全專(zhuān)家的公司使用專(zhuān)有信息的方式。或者它也可以被綜合使用,在每個(gè)人離開(kāi)公司之前幫助公司解決普遍的士氣問(wèn)題。但是,公司也有其他方法可以利用從這些方法中獲得的信息,例如將一名被認(rèn)為不忠的員工排除在有聲望的任務(wù)、旅行機(jī)會(huì)或?qū)I(yè)培訓(xùn)之外。
Dodge表示,這樣做可能會(huì)給公司帶來(lái)很多麻煩,這也是大多數(shù)公司避開(kāi)人工智能這類(lèi)應(yīng)用的原因。“一般來(lái)說(shuō),公司對(duì)透明度的指數(shù)很高。他們都有關(guān)于他們做什么和不做什么的公共政策 - 他們是真的在考慮對(duì)他們的品牌的長(zhǎng)期影響以及公眾對(duì)濫用這種技術(shù)的看法。”
管理你的健康
越來(lái)越多的公司正在推出員工健康計(jì)劃。但是,Dodge說(shuō),這里有很大的隱私侵犯空間,公司必須小心。尤其是當(dāng)公司還在為員工管理醫(yī)療保險(xiǎn)項(xiàng)目時(shí)。
如果事情變得過(guò)于個(gè)人化,就會(huì)出現(xiàn)很多問(wèn)題。當(dāng)員工佩戴個(gè)人健身或健康監(jiān)測(cè)設(shè)備時(shí),很快就會(huì)變得非常私人化。
“如果你愿意,從隱私的角度來(lái)說(shuō),它是有害的,”Dodge說(shuō)。“想象一下,‘我們建議你去看一下關(guān)于IBS的專(zhuān)家,因?yàn)槟憬?jīng)常去洗手間’。”
Dodge建議公司完全不要涉足這一行業(yè),讓專(zhuān)業(yè)公司來(lái)收集和分析數(shù)據(jù),并直接向員工提出建議。即使這些建議是通過(guò)公司贊助的員工門(mén)戶網(wǎng)站提出的,但它是一項(xiàng)外部服務(wù)這一事實(shí),也有助于減少人們對(duì)它的反感,以及濫用這種令人毛骨悚然的服務(wù)的可能性。
AI與權(quán)力平衡
在工作場(chǎng)所濫用人工智能的一個(gè)常見(jiàn)因素是技術(shù)如何影響公司和員工之間的權(quán)力動(dòng)態(tài)。
卡內(nèi)基梅隆大學(xué)倫理與計(jì)算技術(shù)教授、CREATE實(shí)驗(yàn)室主任Illah Nourbakhsh表示:“你可以利用(人工智能)來(lái)增強(qiáng)員工的代理能力。或者你可以用它來(lái)鞏固公司的權(quán)力結(jié)構(gòu)。它是關(guān)于權(quán)力關(guān)系的。你可以用人工智能來(lái)創(chuàng)造平衡,或賦予權(quán)力——或強(qiáng)化工作場(chǎng)所現(xiàn)有的緊張關(guān)系。”
對(duì)于一家公司來(lái)說(shuō),試圖對(duì)其員工獲得更多權(quán)力是很有吸引力的,比如通過(guò)使用監(jiān)控技術(shù)來(lái)提高生產(chǎn)力。
“從戰(zhàn)術(shù)上講,這可能會(huì)產(chǎn)生一些效果,”他說(shuō)。“但是從戰(zhàn)略上來(lái)說(shuō),從長(zhǎng)遠(yuǎn)來(lái)看,它會(huì)讓員工感覺(jué)不那么有能力,并會(huì)損害生產(chǎn)力和營(yíng)業(yè)額。如果亞馬遜因?yàn)槟阕叩锰P款,那會(huì)讓員工感覺(jué)不那么受重視,也不像團(tuán)隊(duì)中的一員。短期來(lái)說(shuō),它會(huì)讓人們走得更快,但從長(zhǎng)期來(lái)看,它會(huì)傷害人際關(guān)系。”
與其他專(zhuān)家一樣,Nourbakhsh建議,在推出新的人工智能項(xiàng)目時(shí),應(yīng)高度關(guān)注透明度和可解釋性。
這包括潛在數(shù)據(jù)集和用于分析它的算法中的偶然和故意偏差問(wèn)題,以及數(shù)據(jù)或算法中的錯(cuò)誤。
當(dāng)好的AI變壞的時(shí)候
此外,公司需要為AI以意想不到的方式失敗做好準(zhǔn)備。
“AI是外星人,”Nourbakhsh說(shuō)。“我們假設(shè)人工智能系統(tǒng)會(huì)像人類(lèi)一樣犯錯(cuò)誤。”
這種假設(shè)可能是有害的。
例如,人工智能系統(tǒng)可以以一種相對(duì)微妙的方式觀察一幅經(jīng)過(guò)修改的圖像,并以極高的自信將其完全歸為其他類(lèi)別。
例如,去年,研究人員發(fā)現(xiàn),一小片膠帶會(huì)讓人工智能認(rèn)為,一個(gè)停車(chē)標(biāo)志是一個(gè)限速為每小時(shí)45英里的標(biāo)志,這對(duì)于人工智能驅(qū)動(dòng)的汽車(chē)來(lái)說(shuō)是一個(gè)嚴(yán)重的錯(cuò)誤。
“這是一個(gè)驚人的錯(cuò)誤,”Nourbakhsh說(shuō)。 “太可怕了。但是,這有助于我們對(duì)于一個(gè)事情是如何失敗的理解,我們有一種先入為主的偏見(jiàn)。當(dāng)它失敗時(shí),它不僅僅是一點(diǎn)點(diǎn)的失敗,就像人類(lèi)失敗一樣。但是它會(huì)以一種完全不同的方式失敗”。
有時(shí),結(jié)果可能是致命的。
去年10月,一架波音737 MAX飛機(jī)在印度尼西亞附近墜毀,機(jī)上189人全部遇難,原因是自動(dòng)駕駛系統(tǒng)出現(xiàn)問(wèn)題。
他說(shuō),按照系統(tǒng)的設(shè)計(jì)方式,飛行員很難重新獲得控制權(quán)。“人類(lèi)需要進(jìn)行最后的監(jiān)督。當(dāng)公司實(shí)施人工智能系統(tǒng)并給予他們自主控制時(shí),這是有問(wèn)題的。”
給人類(lèi)控制權(quán)的一種方法是確保人工智能系統(tǒng)能夠自我解釋?zhuān)医忉屝枰層脩裟軌蚶斫狻K硎荆@應(yīng)該是任何公司構(gòu)建或購(gòu)買(mǎi)人工智能系統(tǒng)時(shí)的基本要求。
如果公司有可用的工具來(lái)監(jiān)控人工智能系統(tǒng),以確保它們正常工作,這也會(huì)有所幫助。但這些工具目前還無(wú)法使用,甚至無(wú)法解決種族或性別偏見(jiàn)等常見(jiàn)問(wèn)題。德勤(Deloitte)網(wǎng)絡(luò)風(fēng)險(xiǎn)服務(wù)數(shù)據(jù)安全主管Vivek Katyal表示,企業(yè)必須建立自己的網(wǎng)絡(luò)。“或者你可以手工調(diào)節(jié),然后想辦法解決問(wèn)題。”
當(dāng)然,任何技術(shù)都無(wú)法阻止企業(yè)故意濫用人工智能系統(tǒng)。最近一項(xiàng)針對(duì)人工智能早期使用者的調(diào)查顯示,在與人工智能相關(guān)的三大擔(dān)憂中,不到三分之一的人將倫理風(fēng)險(xiǎn)列為最重要的三大擔(dān)憂。相比之下,超過(guò)一半的受訪者表示,網(wǎng)絡(luò)安全是他們最關(guān)心的三大問(wèn)題之一。
他說(shuō),除了聲譽(yù)受損和與隱私相關(guān)的合規(guī)標(biāo)準(zhǔn)之外,沒(méi)有什么能迫使企業(yè)做出正確的事情了。
Katyal說(shuō):“在缺乏監(jiān)管的情況下,人們會(huì)做自己想做的事。”各州正在制定法案,擴(kuò)大對(duì)隱私的保護(hù),另外有一個(gè)國(guó)家標(biāo)準(zhǔn)也是有意義的。但他說(shuō),即使有隱私規(guī)定,也無(wú)助于解決算法存在偏見(jiàn)或?yàn)E用的問(wèn)題。“我們將如何更好的控制它?這是我看到的當(dāng)下組織需要解決的一個(gè)重要問(wèn)題。”