人工智能正在迅速的進入工作場所。因為人工智能能夠在瞬間做出明智的預測,并以人類無法匹敵的規模完成特定任務,因而正在被應用于從業務流程到分析的所有領域。
雖然人工智能對工作場所的影響的大部分審查都集中在適合替換的工作類型上,但是人工智能專門針對勞動力問題的努力,比如進行求職者篩選和績效評估,出現了特別棘手的問題——尤其是當機器人開始進入管理領域的時候。
誠然,以員工為中心的人工智能具有顯著的優勢,但短期內人工智能推動的生產率或安全性的提高,從長遠來看可能會適得其反,員工不滿和士氣低落都會導致更高的人員流動率,并最終導致生產率的下降。此外,人工智能的影響還可能會導致公關問題,讓客戶、投資者和求職者失去興趣,更不用說可能違反工作場所隱私的法律和合規問題了。
以下是對工作場所出現的新人工智能技術的研究,它們是如何工作的,它們的意圖是什么,以及它們可能會在何時越界。
篩選你的工作申請
上個月,亞馬遜(Amazon)取消了一款基于人工智能(AI)的招聘工具,因為它對女性存在偏見。事實證明,當一家公司的開發者大多是白人男性時,他們開發的人工智能得出的結論就很可能是,白人男性比其他人群更適合這家公司。如果將性別從考慮范圍中剔除,人工智能也將找到實現同樣目標的代理措施。
但這并沒有阻止其他公司將人工智能應用于簡歷篩選。例如,Oracle正在推出自己的工具來尋找“最適合”的候選人,Oracle負責自適應智能應用程序的副總裁Melissa Boxer說。
“我們總是喝著自己的香檳,”Boxer表示。甲骨文(Oracle)是一家數據公司,希望向其客戶銷售各種人工智能工具。 “這是不可談判的問題之一。我們在公司內部推出了我們正在開發的產品。”
Boxer說,Oracle雇傭了很多人,所以這是一個很好的起點。但人力資源員工不得不費力處理大量的員工。“我們如何才能讓這項工作變得更輕松,并確保我們雇傭了合適的人才?”
此外,但無意識的偏見、數據隱私和其他道德問題也是其中人們最關心的問題。
“我們有一個道德委員會,”Boxer說。 “他們負責建立機器學習公平性的最佳實踐,以及相關的問責制和透明度概念。”
例如,其中包括哪些類型的個人數據可能會或可能不會用作學習過程的一部分的指導原則。
她還表示,Oracle致力于讓人工智能變得可以解釋——努力解決人工智能的“黑箱”問題。“我們已經在應用程序中設置了一系列監督控制措施,以促進透明度和問責制。”
Boxer說,Oracle還計劃推出向員工提供推薦服務的工具。例如,銷售人員可能會得到關于下一位最有希望成為潛在客戶的建議。Boxer說,雖然使用人工智能來建議員工要承擔的任務可能會產生一系列負面影響,但Oracle的目標是讓員工更容易完成工作。
“這不僅僅是讓AI來提醒你需要做的事情,”她說。 “它讓員工更深入的了解了他們的銷售渠道。以及我們是否專注于正確的機會?”
接聽服務臺電話
在電影中,當人工智能與人類對話時,結局往往很糟糕。比如,Hal 9000,還有終結者。但這也會發生在現實生活中。最著名的是,在2015年,微軟的Tay聊天機器人僅僅在互聯網上曝光了幾個小時,就變成了一個種族主義者。
大多數公司正在以更可控的方式部署聊天機器人——例如,用于客戶服務或技術服務臺。
本月,微軟(Microsoft)宣布將正面解決這個問題,發布了一套建立負責聊天機器人的指導方針。
例如,該公司表示,用戶應該清楚,他們是在與聊天機器人交談,而不是與另一個人交談。當對話進行得不順利時,聊天機器人應該迅速將問題轉到真人身上。
其中還包括了一個關于確保機器人有內置的安全措施來防止其被濫用,并對濫用或攻擊性用戶做出適當反應的章節。
“承認你的機器人的局限性,確保你的機器人堅持著它的設計目的,”微軟公司負責會話AI的副總裁Lili Cheng在一篇博客文章中寫道。 例如,一個專為點披薩而設計的機器人應該避免涉及種族、性別、宗教和政治等敏感話題。
這些準則還涉及了可靠性、公平性和隱私問題。
評估你的表現
今年夏天,報道稱,IBM正利用其人工智能平臺沃森(Watson)來評估員工的表現,甚至是預測其未來的表現。然后,這些評級將被經理們用于獎金、薪酬和晉升決策。
IBM聲稱其準確率為96%,但是在員工評估中引入人工智能并提出注意事項可能會引起關注。畢竟,你需要知道當它出錯時你該怎么辦?還有很多事情可能會出錯,特別是如果這項技術沒有被正確推廣的話。
“我們可以設計一個用于績效評估的人力資源系統,該系統可以與智能算法一起運行,從個人過去的行為中學習,或者進行某種測試來衡量他們的決策能力,”來自瑞爾森大學的一位教授表示。 “無論它是什么,如果設計不當,它就可能會有很大的偏差,而且最終可能會給出錯誤的建議。”
為了避免問題,任何這樣的系統都應該從一開始就具有透明度。
“這個模型的每一步都應該得到公司的驗證,所以他們不會處理任何黑盒算法,”她說。對于內部開發的系統和商用工具來說都是如此。
她表示,該算法的大部分設計也可能是主觀的,比如決定是否推薦時要考慮哪些因素。她說,這些設計決策需要與使用該技術的人分享,并且需要被相關人員理解。
她說:“如果你還記得金融危機,那里就涉及到了人們無法理解和審計的復雜的數學問題。他們看不出到底出了什么問題。”
除了檢查算法是否如設計的那樣工作,公司還應該確保使用了正確的數據集,并且系統能夠識別出何時存在數據不足,或者數據不合適的問題。
對于績效評估,考慮到每個工作類別需要不同的標準,并且這些標準可能會因部門或其他因素而變化,數據集在許多情況下可能不充分,或者存在過度代表某些類別而犧牲其他類別的問題。
Bener說:“人工智能術語中還有一種叫做概念漂移的東西,這意味著今天我的模型假設是正確的,但是事情發生了變化,我的數據發生了變化,我的環境發生了變化,我的客戶也發生了變化。因為整個系統也就有了一個漂移,我需要重新審視算法來校準它并再次進行優化。”
“審計非常重要,”她說。“但我認為目前的審計系統沒有很好地涵蓋這些算法,因為受過培訓的人不夠多。”
她表示,審計師需要10到15年的經驗,才能熟練地評估人工智能算法,而且現在還為時過早。“我們沒有那樣的人。”
管理你的工作
擔心你的老板可能會被人工智能取代,而你很快就要為機器人工作?對一些人來說,這種未來已經到來。
擁有15年工作經驗的軟件開發人員Paulo Eduardo Lobo就職于巴西巴拉那州政府。但最近,他還在科技供應商Zerocracy做自由職業者,該公司用人工智能取代了項目經理。
AI會根據開發人員的聲譽和其他因素分配項目任務。他們還會設定時間表,預測交付時間,并計算預算。
Lobo說:“我們不需要開會或人為干預來給團隊成員分配任務。”此外,他還說,這有助于鼓舞士氣。“我們沒有人試圖取悅項目經理,因為這是一個人工智能,另一方面,人工智能也不會浪費時間以試圖取悅團隊成員或提高士氣。”
它有助于公司使用一種編程方法,使項目可以很容易地分割成小任務,通常持續時間不超過30分鐘。
但Lobo說,有些任務還不能自動化,例如確定項目的范圍。 “必須有人來定義我們的軟件將要做什么,以及我們首先要做什么,”他說。此外,人們仍然需要評估代碼質量,并在出現問題時承擔責任。
Zerocracy的軟件架構師Kirill Chernyavsky表示,如果某個任務是由不急于完成的開發人員承擔的,那么可能還需要人工干預。
人工智能驅動的項目管理是一個新的想法,但可能很難推廣。“客戶更喜歡傳統的管理,因為時間證明了這一點,”他說。
總部位于帕洛阿爾托的Zerologin成立于兩年前,自去年春天以來一直在使用其AI系統,現在已經有五個客戶在使用該系統。但首席執行官Yegor Bugayenko表示,開發人員已經為AI工作了大約一年。目前有60名開發人員在這個平臺上工作,其中一些是Zerocracy的員工,一些是自由職業者,其余的是客戶公司的員工。
“最初,當人們開始在機器人管理下工作時,他們會感到驚訝,并產生懷疑,”他說。“他們認為電腦不可能告訴他們該做什么。”
監視你的行動
今年早些時候,亞馬遜(Amazon)被迫公開否認正在為一款追蹤倉庫工人行為的設備申請專利。該公司在一份聲明中說:“有關這項專利的猜測是錯誤的。”相反,其腕帶跟蹤系統將被用作手持掃描儀的替代品。
隨著一年來有關亞馬遜倉庫虐待員工情況的報道不斷傳來,這種保證變得不那么令人信服,其中包括了對員工是否可以上廁所的限制。
當然,想要不惜一切代價實現效率最大化的公司不需要等待亞馬遜的腕帶上市。Insight的主管Jeff Dodge表示,視頻攝像頭與圖像識別技術的結合,可以同樣容易地追蹤到員工的動作。Insight是一家總部位于丹佛的技術咨詢和系統集成公司。
“如果你是一名員工,并且你在一個有攝像頭的空間里,你的雇主實際上是在觀察、分析你的每一個動作、每一個行動,”他說。
除了某些特定的法規遵從性相關的情況外,這在今天是完全合法和可能的。
這種監視可以是完全無害的——例如,出于安全目的,或為了幫助優化辦公室布局。Dodge說,這就是公司目前使用它的方式。
“我們經常與客戶交談,不是談論什么是可能的,而是談論什么是正確的,什么是道德上正確的,”他說。
他說,是的,我們有可能追蹤每個員工在洗手間花了多少時間。“但人們非常清楚,如果他們這樣做了,而有人發現了,那將帶來一個非常負面的新聞后果。”
Dodge說,關鍵是要與員工開誠布公地討論人工智能項目的目的。“‘嘿,我們正在考慮把洗手間建在更方便使用的地方,但要做到這一點,我們必須監控人們會去哪兒。’如果你確實得到了支持,那么對于誰有權訪問這些數據的透明度對于建立信任來說同樣重要。如果被發現某些人工智能正在做出幫助管理的決策,而且你擁有一個將我們與他們相比的環境,那么信任就蕩然無存了,”他說。
監控不一定局限于視頻監控。公司還可以訪問員工的電子郵件、網頁瀏覽記錄以及大量其他的行為數據。
衡量你的忠誠度
情緒分析包括使用分析來確定人們是否對公司或產品有好感。同樣的技術也可以用在員工身上,只不過這里的公司不僅可以訪問他們的公共社交媒體檔案,還可以訪問他們所有的內部通信。
如果做得恰當,情感分析可能會對一家公司有用,而不會造成侵害。
這項技術的一個具體應用是預測哪些員工可能離開一家公司,例如,他們正在瀏覽求職網站,發送簡歷,或者比平時發送更多帶有附件的電子郵件到個人賬戶。
一位不愿透露姓名的財富500強公司的高級信息安全專家表示,這很容易做到。這位專業人士說他已經做了十年了,而且非常可靠。
例如,這種技術可以被無害地使用,以確保專有信息不會離開公司,這就是安全專家的公司使用專有信息的方式。或者它也可以被綜合使用,在每個人離開公司之前幫助公司解決普遍的士氣問題。但是,公司也有其他方法可以利用從這些方法中獲得的信息,例如將一名被認為不忠的員工排除在有聲望的任務、旅行機會或專業培訓之外。
Dodge表示,這樣做可能會給公司帶來很多麻煩,這也是大多數公司避開人工智能這類應用的原因。“一般來說,公司對透明度的指數很高。他們都有關于他們做什么和不做什么的公共政策 - 他們是真的在考慮對他們的品牌的長期影響以及公眾對濫用這種技術的看法。”
管理你的健康
越來越多的公司正在推出員工健康計劃。但是,Dodge說,這里有很大的隱私侵犯空間,公司必須小心。尤其是當公司還在為員工管理醫療保險項目時。
如果事情變得過于個人化,就會出現很多問題。當員工佩戴個人健身或健康監測設備時,很快就會變得非常私人化。
“如果你愿意,從隱私的角度來說,它是有害的,”Dodge說。“想象一下,‘我們建議你去看一下關于IBS的專家,因為你經常去洗手間’。”
Dodge建議公司完全不要涉足這一行業,讓專業公司來收集和分析數據,并直接向員工提出建議。即使這些建議是通過公司贊助的員工門戶網站提出的,但它是一項外部服務這一事實,也有助于減少人們對它的反感,以及濫用這種令人毛骨悚然的服務的可能性。
AI與權力平衡
在工作場所濫用人工智能的一個常見因素是技術如何影響公司和員工之間的權力動態。
卡內基梅隆大學倫理與計算技術教授、CREATE實驗室主任Illah Nourbakhsh表示:“你可以利用(人工智能)來增強員工的代理能力。或者你可以用它來鞏固公司的權力結構。它是關于權力關系的。你可以用人工智能來創造平衡,或賦予權力——或強化工作場所現有的緊張關系。”
對于一家公司來說,試圖對其員工獲得更多權力是很有吸引力的,比如通過使用監控技術來提高生產力。
“從戰術上講,這可能會產生一些效果,”他說。“但是從戰略上來說,從長遠來看,它會讓員工感覺不那么有能力,并會損害生產力和營業額。如果亞馬遜因為你走得太慢而罰款,那會讓員工感覺不那么受重視,也不像團隊中的一員。短期來說,它會讓人們走得更快,但從長期來看,它會傷害人際關系。”
與其他專家一樣,Nourbakhsh建議,在推出新的人工智能項目時,應高度關注透明度和可解釋性。
這包括潛在數據集和用于分析它的算法中的偶然和故意偏差問題,以及數據或算法中的錯誤。
當好的AI變壞的時候
此外,公司需要為AI以意想不到的方式失敗做好準備。
“AI是外星人,”Nourbakhsh說。“我們假設人工智能系統會像人類一樣犯錯誤。”
這種假設可能是有害的。
例如,人工智能系統可以以一種相對微妙的方式觀察一幅經過修改的圖像,并以極高的自信將其完全歸為其他類別。
例如,去年,研究人員發現,一小片膠帶會讓人工智能認為,一個停車標志是一個限速為每小時45英里的標志,這對于人工智能驅動的汽車來說是一個嚴重的錯誤。
“這是一個驚人的錯誤,”Nourbakhsh說。 “太可怕了。但是,這有助于我們對于一個事情是如何失敗的理解,我們有一種先入為主的偏見。當它失敗時,它不僅僅是一點點的失敗,就像人類失敗一樣。但是它會以一種完全不同的方式失敗”。
有時,結果可能是致命的。
去年10月,一架波音737 MAX飛機在印度尼西亞附近墜毀,機上189人全部遇難,原因是自動駕駛系統出現問題。
他說,按照系統的設計方式,飛行員很難重新獲得控制權。“人類需要進行最后的監督。當公司實施人工智能系統并給予他們自主控制時,這是有問題的。”
給人類控制權的一種方法是確保人工智能系統能夠自我解釋,而且解釋需要讓用戶能夠理解。他表示,這應該是任何公司構建或購買人工智能系統時的基本要求。
如果公司有可用的工具來監控人工智能系統,以確保它們正常工作,這也會有所幫助。但這些工具目前還無法使用,甚至無法解決種族或性別偏見等常見問題。德勤(Deloitte)網絡風險服務數據安全主管Vivek Katyal表示,企業必須建立自己的網絡。“或者你可以手工調節,然后想辦法解決問題。”
當然,任何技術都無法阻止企業故意濫用人工智能系統。最近一項針對人工智能早期使用者的調查顯示,在與人工智能相關的三大擔憂中,不到三分之一的人將倫理風險列為最重要的三大擔憂。相比之下,超過一半的受訪者表示,網絡安全是他們最關心的三大問題之一。
他說,除了聲譽受損和與隱私相關的合規標準之外,沒有什么能迫使企業做出正確的事情了。
Katyal說:“在缺乏監管的情況下,人們會做自己想做的事。”各州正在制定法案,擴大對隱私的保護,另外有一個國家標準也是有意義的。但他說,即使有隱私規定,也無助于解決算法存在偏見或濫用的問題。“我們將如何更好的控制它?這是我看到的當下組織需要解決的一個重要問題。”