面試你的AI“小姐姐”真有那么神?
編輯導(dǎo)語:AI技術(shù)在人才招聘領(lǐng)域已經(jīng)被廣泛使用,據(jù)不完全數(shù)據(jù)統(tǒng)計,在美國已有超過100萬求職者接受了 AI 面試,一些大學(xué)甚至開設(shè)了培訓(xùn)課程來提升學(xué)生在 AI 面試時的表現(xiàn)。隨著AI面試越來越多,我們不禁開始思考:AI面試官真的有那么神奇嗎?
繼可口可樂、聯(lián)合利華等巨頭采購AI招聘系統(tǒng)后,國內(nèi)招聘平臺智聯(lián)招聘也推出了視頻面試產(chǎn)品“AI易面”。在面試中AI能進行語義分析、視頻分析,還能給出一些固定套路的面試題,加上經(jīng)典的性格和智力測評,“AI易面”就可以智能完成人崗匹配。
聽起來似乎HR已經(jīng)被AI踢出了招聘流程,但這種新技術(shù)也存在不少問題。
原本AI招聘的賣點是可以消除企業(yè)在招聘過程中的人為偏見,讓企業(yè)和求職者都能從招聘中受益。但實際應(yīng)用起來可沒那么容易,AI算法并非“生來”客觀,招聘軟件也會帶來新的偏差和歧視,誤刷掉有能力的應(yīng)聘者,甚至讓企業(yè)陷入被動境地。
一、哪些公司在做AI招聘工具?
招聘流程中,每一步都有AI加入的可能性。
Textio公司用機器學(xué)習(xí)來幫主管們優(yōu)化崗位描述。Facebook、LinkedIn和ZipRecruiter都是利用算法的推薦,制作專門針對潛在的候選人招聘頁面。
另一方面,Ideal、CVViZ等AI提供商推出“簡歷掃描”服務(wù),可以篩選簡歷,留下那些符合條件的候選人。而當(dāng)和候選人的面試結(jié)束后,HireVue、Modern Hire等向企業(yè)承諾他們的算法可以分析面試中的對話,預(yù)測哪些候選人未來會在工作上表現(xiàn)最好。
圖注:Pymetric的核心(測試)小游戲
還有一些軟件公司會提供AI嵌入的心理測試,如Humantic通過候選人的申請材料和個人網(wǎng)上檔案來分析,Pymetrics表示可以用一些簡單的小游戲達到一樣的效果。
二、AI招聘工具是如何工作的?
要做好AI招聘工具,數(shù)據(jù)基礎(chǔ)是最大的難題。只有數(shù)據(jù)質(zhì)量高,機器學(xué)習(xí)算法才能精確。
目前,大多數(shù)AI招聘工具都從現(xiàn)有員工的數(shù)據(jù)中進行提取訓(xùn)練的,例如要訓(xùn)練一個“簡歷掃描儀”,公司需要收集全部在職員工的簡歷,與銷售數(shù)據(jù)或年度匯報等指標進行對比。這些數(shù)據(jù)搜集、梳理、分析將教會算法如何辨別與公司頂尖員工最相似的簡歷。
當(dāng)然,這種方法只能抓取現(xiàn)有員工的數(shù)據(jù),難免陷入“窠臼”,甚至?xí)霈F(xiàn)用人的偏見。
北美地區(qū)波士頓咨詢集團AI部門的聯(lián)合主管Shervin Khodabandeh說:“AI生來就是帶有偏見的,因為世界上根本不存在毫無偏差的數(shù)據(jù)?!彼忉屨f,這個難題在招聘中更加明顯,因為可用數(shù)據(jù)非常有限——公司招聘的候選人,要過很多年才能看出他們未來會不會成為頂尖員工。
為了解決這些問題,AI服務(wù)提供商們采用一種迂回的方式減少訓(xùn)練數(shù)據(jù)中的偏差。在康奈爾大學(xué)學(xué)習(xí)招聘算法的學(xué)生Manish Raghavan說,很多賣家都在遵守“4/5規(guī)則”的基礎(chǔ)上設(shè)計算法(美國法律規(guī)定,以人口特征劃分,任意人口組被選擇的概率不得低于另一人口組的80%)。
所以為了防止企業(yè)承擔(dān)法律責(zé)任,經(jīng)過精心設(shè)計的招聘AI工具會向企業(yè)推薦人數(shù)相等的男性和女性。但Raghavan說,這并不意味著在人口特征以外的方面算法也能有同樣的表現(xiàn)。
如果訓(xùn)練數(shù)據(jù)大多來自男性員工,AI有可能學(xué)著把一些更多形容男性的特質(zhì)與“成功”聯(lián)系到一起。例如,簡歷上有參加高中橄欖球隊的經(jīng)歷、在介紹信中被稱為“搖滾明星”等。
“如果你有很多這樣的特質(zhì),你可能會騙到很擅長預(yù)測表現(xiàn)杰出的男性的AI招聘工具,但在擅長女性預(yù)測AI招聘工具中你可能就會被淘汰”,Raghavan說道。
如果之后公司面試了十位最符合要求的男性和由申請工具挑選出的十位女性的隨機樣本,表面上來看這次招聘或許是消除了偏見的,但這份工作還是更容易由男性取得。
三、“搬起石頭砸了自己的腳”
基于上文提到的“弊病”,AI招聘工具在很多情況下并不能優(yōu)質(zhì)、高效的完成任務(wù)。
2018年,亞馬遜開發(fā)的“簡歷掃描儀”被爆歧視女性,聲名狼藉。本想做招聘AI中的翹楚,卻因不公平對待含有“女子”一詞(如女子球隊、女子俱樂部)的簡歷而馬失前蹄。
HireVue曾對自家面試分析AI進行了周密的測試,這款產(chǎn)品可以分析候選人的面部細微變化、用詞和語氣。
但紐約大學(xué)AI Now學(xué)院的道德倫理“衛(wèi)士”們評價這款工具是“假科學(xué)”、“對歧視的縱容”,還毫不留情地點名使用這款A(yù)I的企業(yè),其中包括了赫赫有名的聯(lián)合利華、希爾頓集團。
面對集體抵制,美國聯(lián)邦貿(mào)易協(xié)會正式控告HireVue。伊利諾伊州甚至通過了一項法案,要求企業(yè)披露對類似AI工具的應(yīng)用。
四、前車之鑒,后事之師
波士頓咨詢集團的Khodabandeh說,從之前事件中我們最應(yīng)該吸取的經(jīng)驗就是不要盲從AI的推薦,招聘部門經(jīng)理應(yīng)該始終將決策權(quán)握在自己手中?!爱?dāng)你的算法告訴你‘這就是你想要的人’時,不應(yīng)盲目信任它?!彼a充道。
相反,Khodabandeh認為大眾應(yīng)該換個思路想問題。企業(yè)不應(yīng)該讓AI篩選最佳候選人,之后讓招聘部門經(jīng)理給它的“決定”蓋個章,而是應(yīng)該運用AI來審計企業(yè)本身的招聘流程。
最理想的AI招聘應(yīng)該是能夠深入研究人事數(shù)據(jù),但最終目的并不是預(yù)測下個最優(yōu)人選是誰,而是綜合指出過去誰表現(xiàn)得更好。
Khodabandeh補充說:“AI算法的一個優(yōu)勢就是能夠指出你的偏見,你會發(fā)現(xiàn)自己對某些候選人特質(zhì)可能已經(jīng)有了不公平、不負責(zé)任的偏向,甚至自己都沒意識到可能已經(jīng)觸及了倫理道德的邊線。
這時候才輪到我們?nèi)祟愡M場、主動去消除偏見和偏差,決定下一輪面試和招聘看重哪些候選人特質(zhì)?!?/p>
企業(yè)必須非常了解對所應(yīng)用算法的審計,康奈爾的研究員Raghavan說:“多數(shù)AI提供商只會和客戶分享AI算法的內(nèi)部邏輯。對很多客戶來說,即使拿到審計證據(jù),他們也沒有對現(xiàn)實情況的評估能力?!?/p>
對于沒有內(nèi)部數(shù)據(jù)的企業(yè),Raghavan的研究中給出了一些普適性提示:首先,對于AI系統(tǒng)探測給出的員工工作表現(xiàn)和面容、聲音、行為等的關(guān)聯(lián)性,要保持懷疑態(tài)度;其次,提供心理方面檢測及結(jié)論的算法少之又少。
因此這類算法提出的關(guān)聯(lián)性一般只比隨機取樣稍微靠譜一點點,得出的結(jié)論本身可能就是一項新風(fēng)險??偨Y(jié)來看,大火的AI技術(shù)并不是無所不能。有時,HR們最需要的“高科技工具”只是他們的本能。
文章翻譯自QUARTZ,譯者:艾瑞莉婭
原文作者:Nicolás Rivero
原文標題:How to use AI hiring tools to reduce bias in recruiting
本文由 @霞光社 翻譯發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載
題圖來自 Unsplash,基于 CC0 協(xié)議
- 目前還沒評論,等你發(fā)揮!