許多行業(yè)正轉(zhuǎn)向機(jī)器學(xué)習(xí)等人工智能(AI)技術(shù)來審查大量數(shù)據(jù),這并不奇怪。無論是分析財(cái)務(wù)記錄,檢查一個(gè)人是否有資格獲得貸款或法律合同中的錯(cuò)誤,還是確定一個(gè)人是否患有精神分裂癥;人工智能讓你得到了保障!然而,這完全是萬無一失的還是不偏不倚的?這種現(xiàn)代科技能像人類一樣容易產(chǎn)生偏見嗎?
偏差風(fēng)險(xiǎn)因業(yè)務(wù)、行業(yè)和組織而異。他們可以通過多種方式進(jìn)入人工智能系統(tǒng)。例如,它可以被有意地通過隱形攻擊引入人工智能系統(tǒng),也可以被無意地引入到人工智能系統(tǒng)中,這樣就很難被人看到或發(fā)現(xiàn)。這也可能是由于人類輸入了反映他們有偏見思維的已經(jīng)有偏見的數(shù)據(jù),或者是由于數(shù)據(jù)采樣的偏見。當(dāng)訓(xùn)練數(shù)據(jù)中缺少某些類別時(shí),我們也會(huì)出現(xiàn)長(zhǎng)尾偏差。
很明顯,數(shù)據(jù)中的偏差會(huì)導(dǎo)致人工智能模型產(chǎn)生偏差,但更危險(xiǎn)的是,模型實(shí)際上會(huì)放大偏差。例如,一個(gè)研究小組發(fā)現(xiàn)67%的做飯的人是女性,但該算法將84%的廚師標(biāo)記為女性。深度學(xué)習(xí)(另一種人工智能技術(shù))算法正越來越多地被用于做出影響生活的決定,比如招聘員工、刑事司法系統(tǒng)和健康診斷。在這些場(chǎng)景中,如果算法由于AI偏差而做出錯(cuò)誤的決策,那么從長(zhǎng)遠(yuǎn)來看,結(jié)果將是毀滅性的。
例如,2016年,一家非盈利新聞機(jī)構(gòu)Pro Publica公司對(duì)由人工智能COMPAS支持的風(fēng)險(xiǎn)評(píng)估軟件進(jìn)行了批判性分析。COMPAS被用來預(yù)測(cè)一個(gè)囚犯或被指控的罪犯如果被釋放的話會(huì)犯下更多罪行的可能性。據(jù)觀察,黑人被告(錯(cuò)誤率為45%)的假陽(yáng)性率(標(biāo)記為“高風(fēng)險(xiǎn)”,但沒有再次犯罪)幾乎是白人被告(錯(cuò)誤率為24%)的兩倍。除此之外,由于種族、性別和種族的原因,人工智能工具還存在多個(gè)錯(cuò)誤分類/錯(cuò)誤標(biāo)記/錯(cuò)誤識(shí)別的例子。就像在同一年美女.AI該網(wǎng)站聘請(qǐng)人工智能機(jī)器人擔(dān)任選美比賽的評(píng)委,發(fā)現(xiàn)淺膚色的人比深色皮膚的人更具吸引力。
重要的是要揭示無意中的人工智能偏見,使技術(shù)工具與商業(yè)領(lǐng)域的多樣性、公平性和包容性政策和價(jià)值觀保持一致。根據(jù)普華永道2020年的人工智能預(yù)測(cè),68%的組織仍然需要解決他們開發(fā)和部署的人工智能系統(tǒng)的公平性問題。
通常,機(jī)器學(xué)習(xí)、深度學(xué)習(xí)模型通常分為三個(gè)階段:訓(xùn)練、驗(yàn)證和測(cè)試。盡管在數(shù)據(jù)收集之前以及在深度學(xué)習(xí)過程的許多其他階段,偏見會(huì)潛移默化,但偏見在訓(xùn)練階段會(huì)影響模型本身。一般來說,線性回歸、線性判別分析和logistic回歸等參數(shù)算法容易產(chǎn)生高偏差。隨著人工智能系統(tǒng)越來越依賴于深度學(xué)習(xí)和機(jī)器學(xué)習(xí),由于它們的有用性,解決人工智能偏見可能會(huì)變得更加棘手。
雖然偏見正在加速解決,但關(guān)鍵的挑戰(zhàn)在于界定偏見本身。這是因?yàn)閷?duì)一個(gè)開發(fā)人員或數(shù)據(jù)科學(xué)家來說聽起來有偏見的東西可能并不意味著對(duì)另一個(gè)的偏見。另一個(gè)問題是“公平”應(yīng)該遵循什么準(zhǔn)則——在人工智能模型中是否有任何技術(shù)方法來定義公平?另外,需要注意的是,不同的解釋會(huì)造成混亂,不能每次都滿意。此外,確定數(shù)據(jù)集中不同子組的錯(cuò)誤率和準(zhǔn)確度是至關(guān)重要的。接下來,數(shù)據(jù)科學(xué)家需要考慮社會(huì)背景。如果一個(gè)機(jī)器學(xué)習(xí)模型在刑事司法場(chǎng)景中完美地工作,它并不意味著它將適合于篩選求職者。因此社會(huì)背景很重要!
毫無疑問,選擇多樣化的數(shù)據(jù)可以減輕人工智能的偏見,通過為更多的數(shù)據(jù)接觸點(diǎn)和指標(biāo)提供空間來迎合不同的優(yōu)先級(jí)和見解,這是不夠的。同時(shí),特定群體的代理的存在,使得很難建立一個(gè)深刻的學(xué)習(xí)或任何其他人工智能模型,知道所有潛在的偏見來源。
最后,并非所有人工籌碼偏見都有負(fù)面影響。在這種情況下,可解釋人工智能(XAI)可以幫助辨別模型是使用好偏差還是壞偏差來做出決策。它還告訴我們?cè)谀P妥龀鋈魏螞Q策時(shí)哪些因素更重要。雖然它不會(huì)消除偏見,但它肯定能讓人類用戶理解、適當(dāng)信任和有效管理人工智能系統(tǒng)。
編輯:hfy
-
人工智能
+關(guān)注
關(guān)注
1791文章
46859瀏覽量
237577 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8377瀏覽量
132409
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論