人工智能技術提供商聲稱,通過整合基于機器的決策,可以減少招聘中的偏見,但至少在其早期階段,人工智能招聘策略有可能影響企業的包容性。
近年來,隨著企業轉向自動化評估、數字面試和數據分析來解析求職簡歷和篩選應聘者,人工智能在招聘過程中的使用有所增加。IT團隊致力于實現更好的多樣性、公平性和包容性,事實證明,如果企業對如何實施人工智能技術沒有戰略性和深思熟慮,那么在員工招聘中采用人工智能可能弊大于利。
IEEE研究員、紐約大學坦登工程學院院長Jelena Kova?evi?說:“人工智能的偏見通常來自數據。如果沒有一個具有廣泛代表性的數據集,那么采用人工智能系統難以發現和評估適合的應聘者。”
人工智能用于招聘面臨的主要問題是,在美國多年來一直以男性和白人員工為主的行業領域中,人工智能招聘系統所依據的歷史數據最終將具有固有的偏見。如果沒有采用更加廣泛的數據集來訓練人工智能算法,那么人工智能招聘工具很可能帶有自從上世紀80年代以來存在于技術招聘中的偏見。不過專家表示,人工智能的有效使用有助于創建一個更高效、更公平的招聘流程。
人工智能偏見的危險
由于人工智能算法通常是根據過去的數據進行訓練的,因此人工智能的偏見始終是一個難以解決的問題。在數據科學中,偏見被定義為由于學習算法中的錯誤假設而產生的錯誤。采用不能反映當前情況的數據來訓練算法,就會得到錯誤的結果。因此在招聘方面,特別是在IT這樣的行業中,根據歷史的招聘數據訓練算法可能是一個重大的錯誤。
美國電子隱私信息中心的人工智能和人權研究員Ben Winters表示:“很難確保一款人工智能軟件沒有天生的偏見或有偏見的影響。雖然可以采取措施避免這種情況,但許多系統已經顯示出基于種族和殘疾人的偏見影響。”
Kova?evi?表示,如果企業的數據集沒有明顯的多樣性,那么人工智能算法就不可能知道來自代表性不足群體在過去的表現。與其相反,其算法將偏向于數據集所代表的內容,并將所有未來的應聘者與其原型進行比較。
她說,“例如,如果黑人過去被系統排除在外,如果在過去沒有女性參與其中,而基于這些創建算法則無法正確預測未來。如果只從‘常春藤盟校’招聘,那么真的不知道來自一個鮮為人知的學校的申請者會如何表現,所以將會產生多重偏見。”
BMC Software公司的企業社會責任、多元化、公平和包容性負責人Wendy Rentschler敏銳地意識到了人工智能可能給招聘過程帶來的潛在負面影響。她以亞馬遜公司試圖開發人工智能招聘工具的案例遭到失敗為例:該公司不得不中止這個項目,因為該算法歧視女性求職者。
Rentschler說:“如果最大和最偉大的軟件開發商不能做到這一點,我就會對所有人力資源技術人員聲稱能夠做到這一點感到疑慮。”
雖然一些人工智能招聘軟件的開發商宣稱他們的軟件提供了強大的功能,但是否可以幫助確定合適的求職者還有待觀察。人工智能技術可以幫助企業簡化招聘流程,并找到使用人工智能識別合格求職者的新方法,但重要的是不要被這些軟件開發商的宣傳影響其判斷力。
如果正在嘗試改善企業中的包容性,人工智能似乎是一種快速解決方案或靈丹妙藥,但如果對在招聘過程中使用人工智能缺乏策略性,它可能會適得其反。關鍵是企業要確保其招聘流程和使用的工具不排除傳統上代表性不足的群體。
人工智能的歧視
企業有責任確保他們在招聘過程中盡可能合乎道德地使用人工智能,不是成為這些工具功能被夸大的受害者。美國民主與技術中心員工隱私問題高級政策顧問Matthew Scherer指出,由于企業人力資源部門并不創造收入并且通常被貼上支出部門的標簽,因此企業領導者有時渴望引入可以提供幫助的自動化技術削減開支。然而,這種渴望會導致忽視他們正在使用的軟件的潛在負面影響。Scherer還指出,人工智能招聘軟件公司的許多說法即使不是完全錯誤的,也往往言過其實。
他說,“特別是那些聲稱可以分析人們的面部表情、語氣、任何衡量個性方面的工具,而這樣的工具其實是一種萬金油式的工具。”
在視頻面試中,聲稱評估語氣、表情和應聘者個性的工具可以評估應聘者在文化上的“正常”程度,這最終可能會排除殘疾人應聘者或任何不符合算法的應聘者。這些工具也會讓殘疾人應聘者處于尷尬的境地,不得不在面試前決定是否披露其所患殘疾。殘疾人應聘者可能會擔心如果不披露,他們將無法獲得應聘所要求的條件,因此不愿意在招聘過程的早期披露殘疾的事實,或者根本不披露。
正如Rentschler指出的那樣,黑人和有色人種(BIPOC)、女性和殘疾人應聘者通常習慣于在面試中進行“代碼轉換”的做法——即這些代表性不足的群體對他們的說話、外表或行為方式進行某些調整,在這種情況下,人工智能系統可能會意識到這一點,錯誤地將其行為認定為不真實或不誠實,從而拒絕潛在的優秀應聘者。
Scherer將這種歧視分為兩類:具有不同的影響是無意歧視;區別對待是故意歧視。因此很難設計一種可以避免不同影響的工具,而不明確偏袒來自特定群體的應聘者,這將構成法律規定的不同待遇。
人工智能招聘規定
人工智能是一種相對較新的技術,在涉及隱私和貿易實踐的立法、政策和法律時缺乏監管。Winters提到了EPIC公司在2019年向美國聯邦貿易委員會提出的申訴,指控HireVue公司在其招聘軟件中使用與面部識別相關的欺騙性商業行為。
HireVue聲稱提供的軟件可以跟蹤和分析應聘者的言語和面部動作,以便能夠分析適合度、情商、溝通技巧、認知能力、解決問題的能力等等。HireVue公司最終撤回了其面部識別聲明以及這種技術在其軟件中的使用。
但Winters指出,也有類似的技術衡量主觀行為屬性并與組織適合度相匹配,或者使用人工智能在互聯網上搜索關于應聘者陳述的公開信息,然后分析潛在的危險信號或匹配。
人們還擔心人工智能在分析應聘者的視頻面試、評估、簡歷、LinkedIn個人資料或其他公共社交媒體個人資料時可以收集的有關應聘者的數據量。在通常情況下,應聘者甚至可能不知道他們在面試過程中被人工智能工具分析,并且很少有關于如何管理這些數據的規定。
Winters說,“總的來說,目前對人工智能招聘工具的監管很少。美國已經出臺了一些州或地方法案。但是,這些法案中有許多存在重大漏洞。人工智能技術的應用應該具有高度的透明度。因此需要對這些工具的應用進行控制,嚴格限制數據的收集、使用和保留,以及自由發布的獨立第三方測試。”
在招聘中負責任地使用人工智能
Rentschler和她的團隊專注于尋找使用人工智能技術來幫助企業人力資本更具戰略性的方法。他們已經實施了一些工具,可以使用基于技能的評估來快速篩選應聘者,以了解他們申請的職位,并安排面試以與招聘人員聯系。BMC軟件公司還使用人工智能來識別其職位描述中的有問題的語言,確保它們對每個應聘者都是中性和包容的。BMC公司還使用該軟件在入職過程中將新員工與其福利和內部組織信息聯系起來。Rentschler的目標是找到實施人工智能和自動化的方法,以幫助其團隊中的人員更有效地完成工作,而不是取代他們。
雖然人工智能算法可能會根據歷史的招聘數據帶來固有的偏見,但避免這種情況的一種方法是更多地關注基于技能的招聘。Rentschler的團隊僅使用人工智能工具來識別具有他們希望添加到員工隊伍中的特定技能組合的應聘者,而忽略其他標識符,例如教育、性別、姓名和其他可能在歷史上將應聘者排除在外的潛在識別信息過程。Rentschler說,通過這樣做,BMC軟件公司聘請了背景出乎意料的應聘者,其中包括一名敘利亞難民,他原本是一名牙醫,但也有一些編碼經驗。由于該系統只專注于尋找具有編碼技能的應聘者,這位前牙醫通過了篩選并被該公司聘用。
采取的其他道德策略包括建立制衡機制。Scherer表示,有一家公司設計了一種工具,可以將潛在應聘者的簡歷發送給招聘人員,然后招聘人員會審查他們的簡歷,并決定他們是否適合這份工作。即使那名招聘人員拒絕了簡歷,應聘者的簡歷仍然會再次通過算法發送給其他的招聘人員。如果它被標記為一名良好的潛在應聘者,它會被發送給另一名不知道已經被其他人審查過的招聘人員。這確保了簡歷由人工復核,并且他們不完全依賴人工智能系統來確定合格的應聘者,還確保招聘人員不會忽視合格的應聘者。
Scherer說,“重要的是,人類需要保持判斷力,而不僅僅依賴機器。這就是很難進行訓練的事情,因為對于招聘人員來說,最容易做的事情就是,‘如果公司希望我使用這個工具,我將按照機器告訴我的任何事情去做。”
版權聲明:本文為企業網D1Net編譯,轉載需注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。