手机免费看国产欧美精品_久久精品国产9久久综合_免费无码一区二区三区视频_亚洲综合精品一二三区在线

您的位置:首頁>AI>

使用AI可以消除招聘中的偏見

像任何新技術一樣,人工智能能夠產(chǎn)生巨大的好壞。公眾似乎越來越關注壞處,尤其是在談到AI的潛在偏見時。這種擔憂是有充分根據(jù)的,也是有據(jù)可查的。但是什么是AI?它是機器對人類過程的模擬。這種對有偏見的AI的恐懼忽略了一個關鍵事實:AI產(chǎn)生偏見的最深層次原因是它正在模擬的人類行為。它是用于訓練算法的有偏見的數(shù)據(jù)集。如果您不喜歡AI所做的事情,那么您肯定會不喜歡人類的所作所為,因為AI純粹是在向人類學習。

讓我們專注于招聘。招聘的現(xiàn)狀存在嚴重缺陷,坦率地說,反烏托邦主義的原因主要有三個。

無意識的人為偏見使招聘變得不公平。在面試之前對申請人進行審查的典型方法是通過招聘人員對簡歷進行審查。大量研究表明,這一過程導致對婦女,少數(shù)民族和老年工人的重大無意識偏見。

申請人大池被忽略。LinkedIn和其他采購平臺非常成功,平均有250名申請人申請任何公開職位。這轉(zhuǎn)化為數(shù)以千計的公開職位申請者。顯然,此過程無法手動處理。因此,招聘人員將他們對申請人池的審查限制在他們認為將顯示出最大希望的10%到20%:來自常春藤盟校區(qū)的人才,尋求填補職位的公司競爭對手的被動應聘者或員工推薦計劃。但猜猜怎么了?與提交簡歷的申請人數(shù)量相比,頂尖的大學和員工推薦計劃的多樣性要少得多。

傳統(tǒng)的招聘工具已經(jīng)偏向。這是由美國法律的一個漏洞允許的:聯(lián)邦法律聲明,如果是與工作相關的租用工具可以偏頗。“與工作相關”是指成功完成某個角色的人具有某些特征。但是,如果所有“成功的員工”都是白人,由于人類在聘用習慣上的偏見,那么幾乎可以肯定的是,與工作相關的聘用評估將偏向于白人,而不是白人和白人。來自非常春藤盟校的一名非洲裔美國婦女很幸運地成為了人才的一部分,其簡歷得到了審查,并且通過了招募人員評估她的簡歷的候選人,然后可能會被要求進行有偏見的評估。

難怪我們要雇用多樣化的勞動力嗎?導致當今長期缺乏多樣性的因素以及將繼續(xù)阻礙多樣性的因素是當今存在的人類范式,而不是人工智能。

人工智能最大的希望是消除招聘偏見,其主要原因有兩個:

1.人工智能可以消除無意識的人類偏見。當前許多用于招聘的AI工具都有缺陷,但是可以解決。AI的優(yōu)點在于我們可以設計它以滿足某些有益的規(guī)范。像OpenAI和未來人生研究院這樣的AI從業(yè)者之間的運動已經(jīng)提出了一套設計原則,以使AI符合道德規(guī)范和公平(即,對所有人有利)。一個關鍵原則是應設計AI,以便對其進行審核并消除其中的偏見。AI審核的功能應與新車開車前的安全測試一樣。如果不符合標準,則必須先修復有缺陷的技術,然后才能將其投入生產(chǎn)。

2. AI可以評估候選人的整個流程,而不是強迫時間緊迫的人員實施有偏見的流程以從一開始就縮小流程。只有使用真正的自動化漏斗處理程序,我們才能消除因收縮初始管道而造成的偏差,因此手動招聘人員的能力可以處理它。令人震驚的是,如今的公司毫不掩飾地承認,數(shù)以百萬計的申請者中只有一小部分受到審查。技術人員和立法者應共同努力,創(chuàng)建工具和政策,使對整個管道的審查成為可能和強制性。

此外,對AI公平性的關注應該使我們以相同的標準評估現(xiàn)有的聘前評估。美國平等就業(yè)機會委員會(EEOC)于1970年代制定了現(xiàn)行的公平招聘條例,當時公共互聯(lián)網(wǎng)問世,而申請每種工作的人數(shù)激增。EEOC沒想到現(xiàn)代算法比人類更容易偏見,但也能夠評估更大,更多樣化的管道。我們需要更新和闡明這些規(guī)定,以真正鼓勵招聘中的機會均等,并允許使用符合明確標準的算法招聘系統(tǒng)。標準的一些先例已經(jīng)出現(xiàn)。加利福尼亞州議會通過決議為了使用公正的技術來促進招聘的多樣性,舊金山DA在刑事司法程序中使用了“盲判”人工智能。

相同的標準應適用于現(xiàn)有的招聘工具。亞馬遜因其男性偏見的招聘算法而在全國范圍內(nèi)受到了沉重的打擊。然而在當今的美國,法律上允許雇主使用歧視婦女或少數(shù)族裔的傳統(tǒng)偏見評估。怎么會這樣?可能是因為大多數(shù)人不知道偏見的評估被廣泛使用(和合法)。如果我們要呼吁無偏的AI(我們絕對應該這樣做),我們還應該呼吁消除所有有偏見的傳統(tǒng)評估。

免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!