當然還有很大的改進空間。員工推薦,這一過程往往會讓未被充分代表的群體離開,但仍占公司招聘的大部分。研究發現,招聘人員和招聘經理也會對這一過程產生自己的偏見,他們通常會選擇“聽起來不錯”的名字和教育背景。
在整個管道過程中,公司缺乏種族和性別多樣性,在公司高層中,代表人數不足的人正在減少。在財富500強企業中,只有不到5%的首席執行官是女性——而且只有三位黑人ceo。財富500強公司的種族多元化幾乎同樣令人沮喪,2016年新任命的五名董事會成員中,有四人是白人。
“識別高潛力的候選人是非常主觀的,”CorpU的首席執行官Alan Todd說,他是一個領導發展的技術平臺。“人們根據無意識的偏見選擇他們喜歡的人。”
人工智能的擁護者辯稱,這項技術可以消除其中的一些偏見。Entelo和Stella IO等公司沒有依靠人們的感情來做出招聘決定,而是使用機器學習來檢測某些工作所需的技能。然后,人工智能將匹配那些擁有這些技能的候選人。這些公司聲稱不僅要找到更好的候選人,而且還要找出那些以前在傳統過程中沒有被承認的人。
例如,Stella IO的算法只根據技能對候選人進行評估,例如,創始人Rich Joffe說。“這個算法只允許根據我們告訴它的數據進行匹配。它只被允許看技能,它只被允許看行業,它只被允許看一層公司。”他說,這限制了偏見。
Entelo今天發布了無偏見的采購模式,這是一種進一步匿名招聘的工具。該軟件允許招聘人員隱藏姓名、照片、學校、就業差距和年齡標記,以及替換性別特定的聲明,以減少各種形式的歧視。
人工智能也被用于幫助培養內部人才。CorpU與密歇根大學羅斯商學院建立了合作關系,建立了一個20周的在線課程,利
用機器學習來識別高潛力的員工。托德說,那些排名最高的人通常不是那些已經在晉升的人,而且經常表現出在招聘過程中被忽視的內向性格。
“人類的決策非常糟糕,”康奈爾大學信息科學系助理教授Solon Borocas說,他研究機器學習的公平性。但他警告說,我們也不應該高估技術的中立性。
Borocas的研究發現,在招聘過程中,機器學習很像它在面部識別中的應用,會導致無意識的歧視。算法可以攜帶那些編程的人的隱式偏見。或者,他們可能傾向于偏愛某些特定的品質和技能,而這些品質和技能在給定的數據集中體現出來。Borocas解釋說:“如果你用來訓練系統的例子不能包括某些類型的人,那么你開發的模型可能真的很難評估這些人。”
并不是所有的算法都是平等的,人工智能社區也存在分歧,哪些算法有可能使招聘過程更加公平。
一種機器學習依賴于程序員來決定在看候選人時應該優先考慮哪些品質。這些“受監督”的算法可以用來掃描那些去常春藤盟校的人,或者那些表現出某些品質的人,比如外向的人。
“無人監督”的算法決定了他們自己的哪些數據是優先排序的。這臺機器根據現有員工的素質和技能做出自己的推斷,以確定未來員工所需要的技能。如果這個樣本只包含一個同質的群體,它就不會學習如何雇傭不同類型的個體——即使他們在工作中表現出色。
公司可以采取措施來減輕這些形式的偏見。人工智能招聘初創公司Pymetrics讓程序員對其算法進行審計,以確定它是否對任何性別或種族群體都有偏好。例如,大量考慮郵政編碼與種族密切相關的軟件,可能會對黑人候選人產生偏見。審計可以捕獲這些偏見,并允許程序員糾正它們。
Stella IO還讓人類監控人工智能的質量。“雖然沒有任何算法能保證萬無一失,但我相信它比人類好得多,”創始人Joffe說。
波拉卡斯同意,在人工智能的幫助下,雇傭員工比現狀要好。然而,最負責任的公司承認,他們不能完全消除偏見,并迎頭解決。“我們不應該把它看作是一顆銀彈。”他警告說。