如果應(yīng)用得當(dāng),人工智能可能會(huì)通過協(xié)助職位發(fā)布,評估簡歷和標(biāo)準(zhǔn)化面試流程來幫助彌合IT領(lǐng)域的多樣性鴻溝。
科技公司是勞動(dòng)力多樣性問題的發(fā)源地。盡管布魯金斯在聘用亞裔美國人時(shí)遠(yuǎn)遠(yuǎn)超過了全國平均水平,但他們發(fā)現(xiàn)非裔美國人和拉丁裔人受雇于科技行業(yè)的比例僅為其他所有職業(yè)的一半。婦女也遠(yuǎn)遠(yuǎn)落后于男性。關(guān)于這些差距為什么會(huì)持續(xù)存在的理論并不缺乏,但是迄今為止,沒有任何解決方案對行業(yè)的問題產(chǎn)生了重大影響。現(xiàn)在是時(shí)候來看一下人工智能以消除我們招聘過程中的偏見了嗎?
首先,我們必須處理房間里的大象。當(dāng)亞馬遜試圖將人工智能用于此目的時(shí),它曾廣為人知。他們的招聘工具發(fā)展出了習(xí)以為常的性別偏見,使男性申請者勝于女性。模型僅與其數(shù)據(jù)一樣好。如果您給它提供了數(shù)千份簡歷,其中70%是男性,那么您認(rèn)為關(guān)于性別平等的結(jié)論是什么?
在研究人工智能如何幫助消除招聘過程中的偏見時(shí),需要關(guān)注三個(gè)關(guān)鍵領(lǐng)域。他們正在創(chuàng)建職位發(fā)布,評估簡歷以及面試候選人。
您可能沒有意識(shí)到,但是您精心制作的招聘廣告在不知不覺中阻止了合格的候選人應(yīng)聘。在ZipRecruiter的一項(xiàng)研究中,70%的職位中包含男性單詞。這一發(fā)現(xiàn)遍及所有行業(yè)。當(dāng)措辭更改為對性別更加中立時(shí)(使用諸如支持和理解之類的詞而不是積極進(jìn)取或領(lǐng)導(dǎo)者之類的詞),招聘經(jīng)理的回應(yīng)率增加了42%。那么AI如何發(fā)現(xiàn)這些失衡呢?通過允許該算法遍歷數(shù)百萬個(gè)招聘廣告及其相應(yīng)的簡歷,它可以識(shí)別隱藏在數(shù)據(jù)中的模式。僅通過在帖子中使用包容性寫作,我們就不會(huì)拒絕合格的申請人,并且將最大限度地提高我們的選擇范圍。
我們可能有一個(gè)充滿多樣性的簡歷庫,但我們加劇了下一個(gè)問題-評估簡歷。一個(gè)職位發(fā)布可能會(huì)吸引100個(gè)簡歷。隨著最近遠(yuǎn)程工作的爆炸式增長,響應(yīng)速度甚至可以進(jìn)一步提高。人類不可能公平地評估數(shù)百名候選人。我們在不知不覺中偏向于淘汰那些不適合我們預(yù)設(shè)模式的候選人。他們上了正確的大學(xué)嗎?他們上次在哪里工作?他們被雇員轉(zhuǎn)介了嗎?這些限定詞中的每一個(gè)都從我們的申請人池中剔除多樣性。人工智能可以提供幫助。在采用基于技能的方法時(shí),您要公平對待競爭環(huán)境,因?yàn)锳I會(huì)故意忽略所有人口統(tǒng)計(jì)細(xì)節(jié),以使資歷為零。它在幾秒鐘內(nèi)消化成千上萬份簡歷的同時(shí)做到了這一點(diǎn)。仍然,我們必須要小心。如果我們提供模型垃圾,它將產(chǎn)生垃圾。在公司的最佳績效上對我們的算法進(jìn)行校準(zhǔn)在紙面上似乎是理想的選擇,但是除非您已經(jīng)擁有一支多樣化的員工隊(duì)伍,否則您只會(huì)使陳舊的聘用做法永存。
-
算法
+關(guān)注
關(guān)注
23文章
4599瀏覽量
92643 -
AI
+關(guān)注
關(guān)注
87文章
30146瀏覽量
268414 -
人工智能
+關(guān)注
關(guān)注
1791文章
46859瀏覽量
237567
發(fā)布評論請先 登錄
相關(guān)推薦
評論