精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

禁止算法識(shí)別性別就能消解歧視嗎

ss ? 來源:腦極體 ? 作者:腦極體 ? 2021-04-22 17:13 ? 次閱讀

海外科技圈的政治正確風(fēng)潮,早已不算新聞了,并且已經(jīng)遍布科技領(lǐng)域的各個(gè)角度。

Facebook將默認(rèn)“男性在前”的新增好友logo,改為“女性在前”,并且大小相當(dāng)。還提供了除男、女之外的非傳統(tǒng)性別供用戶選擇,比如無性別、雙性人、跨性別等等,恨不得將“性別平等”四個(gè)大字貼在腦門兒上;

在日常管理中,科技公司對(duì)政治不正確的言論也保持著十足的警惕。比如谷歌就曾因一位工程師散布“有害無益的性別主義成見”而將其開除。

在對(duì)可能的冒犯充滿審慎的大環(huán)境下,一些反面聲音也出現(xiàn)了。

《紐約時(shí)報(bào)》就曾發(fā)文稱“政治正確是美國(guó)精英階層的虛偽”,也有業(yè)內(nèi)人士認(rèn)為“不合邏輯、肆無忌憚的政治正確正在阻礙科技創(chuàng)新”等等。最直接的例子,就是IBM宣布退出了人臉識(shí)別技術(shù)的研發(fā),原因是為了消除種族歧視,因?yàn)槟壳暗?a target="_blank">算法無法對(duì)黑人面部做出精準(zhǔn)判斷。

事實(shí)上,算法對(duì)于少數(shù)群體的偏見,已經(jīng)成為困擾科技界的一大難題。

目前,歐盟的數(shù)字保護(hù)組織掀起了一項(xiàng)新的運(yùn)動(dòng),要求像禁止在城市大規(guī)模部署面部識(shí)別一樣,禁止利用算法來主動(dòng)預(yù)測(cè)某人的性別和性取向。

用算法判斷男女這件事,為什么讓歐洲人覺得難以接受?對(duì)此的抗議是對(duì)科技倫理的合理討論,還是過度政治正確下對(duì)科技創(chuàng)新的掣肘呢?

性別二元論的算法,真的危險(xiǎn)嗎?

對(duì)于人工智能新技術(shù),歐盟有許多不可承受之重。不能接受個(gè)人數(shù)據(jù)被濫用,有了史上最嚴(yán)的隱私保護(hù)法案GDPR;為了防止技術(shù)風(fēng)險(xiǎn),計(jì)劃五年內(nèi)公共場(chǎng)所禁用人臉識(shí)別。

現(xiàn)在,為了避免歧視與偏見,連算法對(duì)男、女性別的識(shí)別,歐盟也開始拒絕了。

如果說對(duì)黑人面部的識(shí)別不到位是源自于機(jī)器視覺技術(shù)的天然缺陷,那么如果禁止自動(dòng)性別識(shí)別,可能就直接把既定的社會(huì)規(guī)則在算法世界的投射給掐滅了。

比如現(xiàn)實(shí)中,如果你是一家便利店的老板,見到顧客的第一反應(yīng)就能識(shí)別出對(duì)方的生理性別是男是女,從而判斷出自己所在商圈的性別分布概率。但現(xiàn)在,歐洲的運(yùn)動(dòng)發(fā)起者們則希望算法不要采集并分析性別數(shù)據(jù)。

那么,讓算法判斷男女這件事,真的很危險(xiǎn)嗎?

首先,性別識(shí)別算法的判斷基于二元論,即男或女,無法涵蓋多元人群的性別表達(dá)。

在數(shù)據(jù)上,除了Facebook這類深受“政治正確”影響的平臺(tái),絕大多數(shù)數(shù)據(jù)標(biāo)注公司都會(huì)采用性別二元論,依照傳統(tǒng)的生物特征和性別理解,來為人臉進(jìn)行標(biāo)注。比如短發(fā)就歸類為男人,化妝就歸類為女人。這就導(dǎo)致許多變性人和跨性別者,會(huì)直接被誤認(rèn)。從而在一些以性別為基礎(chǔ)的活動(dòng)中遭受不公正的待遇,比如此前柏林為慶祝同工同酬日,會(huì)向女性提供打折地鐵票,就是使用面部掃描來識(shí)別女性,這顯然會(huì)讓一些跨性別者無法被覆蓋。

其次,數(shù)字線索的失真會(huì)直接影響算法的有效性,從而喪失預(yù)期的商業(yè)價(jià)值。

性別識(shí)別算法被用來做什么?一般都脫離不了商業(yè)目的或公共安全,比如可以通過識(shí)別男女來縮小追蹤嫌疑人的范圍,分析某人的聲音并匯總他們的購(gòu)物習(xí)慣來提升電商平臺(tái)的推薦算法。亞馬遜等大型科技公司銷售的商業(yè)系統(tǒng)中,性別分類都是標(biāo)配。

但現(xiàn)實(shí)中機(jī)靈的商家能根據(jù)一個(gè)人的聲情行表判斷出對(duì)方的大致偏好或心理性別,進(jìn)而提供個(gè)性化服務(wù)。在數(shù)字世界中,這些特征被簡(jiǎn)化為二元結(jié)構(gòu)的時(shí)候,不可能達(dá)成預(yù)期的準(zhǔn)確度。

比如斯坦福大學(xué)研發(fā)的“AI gaydar”系統(tǒng),號(hào)稱可以 81%的準(zhǔn)確率來識(shí)別男同性戀,但遭到了來自普林斯頓大學(xué)、谷歌等多位研究人員的質(zhì)疑,認(rèn)為其研究存在嚴(yán)重缺陷,模型并沒有發(fā)現(xiàn)不同性取向的人面部特征有何差異。

顯然,部署這樣的算法不僅會(huì)因?yàn)槭д`而讓當(dāng)事人感到冒犯,也無法給應(yīng)用者帶來有益的商業(yè)價(jià)值。

科技媒體《theverge》就曾報(bào)道過一個(gè)“僅限女孩”的社交應(yīng)用Giggle,試圖用面部識(shí)別來驗(yàn)證用戶身份。如果算法失誤,不僅會(huì)失去一個(gè)新用戶,恐怕還會(huì)引發(fā)輿論指責(zé)。

出于擔(dān)憂,數(shù)字權(quán)利組織Access Now與其他60多個(gè)非政府組織一起,要求歐盟委員會(huì)禁止自動(dòng)性別識(shí)別這項(xiàng)技術(shù)。

聽到這里,大部分人可能已經(jīng)有點(diǎn)迷惑了,畢竟作為消費(fèi)者或用戶,在商業(yè)社會(huì)中一個(gè)人被全方位地審視和判斷,早就是心照不宣的事兒了,且不管有沒有用,就算被一個(gè)算法認(rèn)錯(cuò)性別,很重要嗎?直接禁止會(huì)不會(huì)矯枉過正了?

當(dāng)偽君子遇上真小人

必須承認(rèn),自動(dòng)性別識(shí)別在現(xiàn)實(shí)中的威脅并沒有那么大,對(duì)其的抗拒,很大程度上確實(shí)是受“實(shí)現(xiàn)所有類型的人平等”的政治正確形態(tài)影響。

發(fā)起機(jī)構(gòu)之一Access Now的員工就表示,這種性別識(shí)別技術(shù)目前的應(yīng)用主要是有針對(duì)性的廣告,比如某一性別專用的App、廣告投放,未來還可能限制進(jìn)入浴室/更衣室等區(qū)域。錯(cuò)誤的判定結(jié)果就可能導(dǎo)致歧視,比如給男性對(duì)象投放汽車廣告,給女性用戶投放連衣裙廣告。

試想一下,未來廣告推薦算法都不能判斷用戶的性別,對(duì)大家投放一致的廣告,是不是就是一個(gè)更好的社會(huì)呢?

冷靜下來想,似乎并不能成立。

這也是科技領(lǐng)域政治正確被反對(duì)者廣為批判的原因:

1.以科技研發(fā)為代價(jià),卻僅僅消除了口頭歧視,而未能改變根本矛盾。

除了IBM停止人臉識(shí)別技術(shù)之外,亞馬遜也關(guān)停了給簡(jiǎn)歷打分的AI算法,原因是通過識(shí)別性別關(guān)鍵詞而給女性應(yīng)聘者更低的分?jǐn)?shù)。那么,停用算法,避免了公然的系統(tǒng)偏見,是不是就為黑人或女性創(chuàng)造了更平等的環(huán)境呢?顯然沒有直接關(guān)系。

男女在高管職位上的懸殊比例,不會(huì)因?yàn)榘选癱hairman”改為中性詞“chairperson”而消失。

如果政治正確的倡議和運(yùn)動(dòng)沒有撼動(dòng)資本制度的能量,那么只是淪為少數(shù)群體的發(fā)泄途徑,而掌握著主控權(quán)和選擇權(quán)的依然是資本。

2.當(dāng)政治正確延伸到微侵略性領(lǐng)域,過度保護(hù)進(jìn)一步延緩創(chuàng)新。

包容多元群體原本是一件符合人類基本道德觀的好事,可是當(dāng)被用于批判一些微侵略事件——即對(duì)任何邊緣化或少數(shù)群體有意或無意地表示負(fù)面偏見的評(píng)論,如果一個(gè)男性以傲慢的態(tài)度向女性解釋一些簡(jiǎn)單的東西,就會(huì)被指責(zé)為“爹味”、“普且信”,引起摩擦。

過于泛化的政治正確,會(huì)帶來更多的身份沖突,導(dǎo)致依賴團(tuán)隊(duì)協(xié)作的科技創(chuàng)新,群體之間的合作變得更加困難。

一位美國(guó)工程師就透露,由于希望證明女性和男性一樣擅長(zhǎng)工程,她有意識(shí)地避免在會(huì)議上坐在其他女性旁邊,盡量自己解決問題,避免尋求幫助。

顯然,在受政治正確約束的文化中,自我保護(hù)變得比創(chuàng)造性工作更加重要,不僅優(yōu)勢(shì)人群如白人男性擔(dān)心被指責(zé)、不敢直接解決問題,那么被過度保護(hù)的群體也可能與潛在的支持隔離開來,變得效率更低,技能提升速度也更慢。

如果說公然的歧視與偏見是“真小人”,那么過度的政治正確又容易淪為“偽君子”,被視作一種無法真正解決問題的偽善。

那么,有沒有第三種可能,建立一個(gè)“真君子”的科技世界呢?

尋找第三種可能

如果說當(dāng)下的數(shù)據(jù)隱私保護(hù)運(yùn)動(dòng),是為了不讓科技的潛在缺陷傷害少數(shù)群體或邊緣人群。但顯然,一個(gè)理想的數(shù)字世界,并不會(huì)因此自動(dòng)到來,除了“科技不能做什么”,或許還應(yīng)該主動(dòng)去思考“科技能夠?yàn)橐粋€(gè)更包容、多元的社會(huì)做什么”。

舉個(gè)最簡(jiǎn)單的例子,谷歌輸入大量“穿白大褂、帶聽診器”的男性照片,讓AI將醫(yī)生形象與男性聯(lián)系在一起。從統(tǒng)計(jì)學(xué)的角度,算法形成偏見似乎情有可原,因?yàn)橐恢币詠矶际沁@樣運(yùn)作的,但比起政治正確的制衡與爭(zhēng)議,從根源上改變少數(shù)群體在數(shù)字世界的“失聲”局面,或許更具有建設(shè)性。

我們知道,算法對(duì)黑人、女性等的偏見,一個(gè)最主要的原因就是訓(xùn)練語料的缺失。

數(shù)據(jù)顯示,全世界有42%,也就是11億的女性都沒有銀行賬戶,這自然會(huì)導(dǎo)致金融算法對(duì)女性打出更低的分級(jí),讓女性比男性更難從銀行中借貸。所以在涉及金融科技產(chǎn)品時(shí),更應(yīng)該主動(dòng)將女性需求納入到產(chǎn)品和服務(wù)當(dāng)中,比如考慮到女性的風(fēng)險(xiǎn)偏好,幫助縮小兩性在投資領(lǐng)域的差距。

再比如,今天科技領(lǐng)域普遍存在的關(guān)鍵工程崗位的男女性別比例失衡問題。在努力改變性別定勢(shì)思維與偏見的同時(shí),或許察覺到女性在STEAMD學(xué)科,即科學(xué)、技術(shù)、工程、藝術(shù)和數(shù)學(xué)領(lǐng)域上過早的限制,才是縮小未來性別差距的真正方式,也能為IT、AI等領(lǐng)域帶來源源不斷的新生力量。

從根本上建立起相關(guān)支持體系,鼓勵(lì)少數(shù)群體實(shí)現(xiàn)自身發(fā)展,才是鏟除AI偏見、建立多元化社會(huì)的起點(diǎn)。

當(dāng)下的AI是一個(gè)天生的偏見者,只有追溯到它出生的地方去尋求改變,一個(gè)天下大同的理想數(shù)字世界才會(huì)真正走來。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • IT
    IT
    +關(guān)注

    關(guān)注

    2

    文章

    854

    瀏覽量

    63469
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30154

    瀏覽量

    268423
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    46861

    瀏覽量

    237587
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于改進(jìn)ResNet50網(wǎng)絡(luò)的自動(dòng)駕駛場(chǎng)景天氣識(shí)別算法

    摘要:為了充分利用自動(dòng)駕駛汽車路測(cè)圖像數(shù)據(jù),增加行駛過程中對(duì)天氣情況識(shí)別的準(zhǔn)確性,提出了一種基于改進(jìn)ResNet50網(wǎng)絡(luò)的自動(dòng)駕駛場(chǎng)景天氣識(shí)別算法。該算法將SE模塊與ResNet50網(wǎng)
    的頭像 發(fā)表于 11-09 11:14 ?830次閱讀
    基于改進(jìn)ResNet50網(wǎng)絡(luò)的自動(dòng)駕駛場(chǎng)景天氣<b class='flag-5'>識(shí)別</b><b class='flag-5'>算法</b>

    深度識(shí)別算法包括哪些內(nèi)容

    深度識(shí)別算法是深度學(xué)習(xí)領(lǐng)域的一個(gè)重要組成部分,它利用深度神經(jīng)網(wǎng)絡(luò)模型對(duì)輸入數(shù)據(jù)進(jìn)行高層次的理解和識(shí)別。深度識(shí)別算法涵蓋了多個(gè)方面的內(nèi)容,主要
    的頭像 發(fā)表于 09-10 15:28 ?304次閱讀

    旗晟機(jī)器人儀器儀表識(shí)別AI智慧算法

    缺少的一個(gè)環(huán)節(jié)。那么我們說說旗晟儀器儀表識(shí)別AI智慧算法吧。 旗晟儀器儀表識(shí)別AI智慧算法是通過各類采集設(shè)備與AI服務(wù)器,結(jié)合行業(yè)大數(shù)據(jù)庫(kù)積累以及自研AI深度學(xué)習(xí)
    的頭像 發(fā)表于 07-26 09:58 ?300次閱讀
    旗晟機(jī)器人儀器儀表<b class='flag-5'>識(shí)別</b>AI智慧<b class='flag-5'>算法</b>

    平衡創(chuàng)新與倫理:AI時(shí)代的隱私保護(hù)和算法公平

    。為此,開發(fā)者應(yīng)采用多元化的數(shù)據(jù)源,并定期進(jìn)行算法公平性的評(píng)估和調(diào)整。在就業(yè)篩選等敏感領(lǐng)域,透明度和公平性的結(jié)合尤為重要,這需要確保篩選過程不會(huì)因?yàn)?b class='flag-5'>性別、年齡、種族等非相關(guān)因素而產(chǎn)生歧視。 個(gè)人隱私
    發(fā)表于 07-16 15:07

    圖像識(shí)別算法有哪幾種

    圖像識(shí)別算法是計(jì)算機(jī)視覺領(lǐng)域的核心技術(shù)之一,它通過分析和處理圖像數(shù)據(jù),實(shí)現(xiàn)對(duì)圖像中的目標(biāo)、場(chǎng)景和物體的識(shí)別和分類。 圖像識(shí)別算法的發(fā)展歷程
    的頭像 發(fā)表于 07-16 11:22 ?945次閱讀

    圖像識(shí)別算法都有哪些方法

    圖像識(shí)別算法是計(jì)算機(jī)視覺領(lǐng)域的核心任務(wù)之一,它涉及到從圖像中提取特征并進(jìn)行分類、識(shí)別和分析的過程。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,圖像識(shí)別算法
    的頭像 發(fā)表于 07-16 11:14 ?5137次閱讀

    圖像識(shí)別算法的提升有哪些

    引言 圖像識(shí)別是計(jì)算機(jī)視覺領(lǐng)域的核心任務(wù)之一,旨在使計(jì)算機(jī)能夠自動(dòng)地識(shí)別和理解圖像中的內(nèi)容。隨著計(jì)算機(jī)硬件的發(fā)展和深度學(xué)習(xí)技術(shù)的突破,圖像識(shí)別算法的性能得到了顯著提升。本文將介紹圖像
    的頭像 發(fā)表于 07-16 11:12 ?595次閱讀

    圖像識(shí)別算法的優(yōu)缺點(diǎn)有哪些

    圖像識(shí)別算法是一種利用計(jì)算機(jī)視覺技術(shù)對(duì)圖像進(jìn)行分析和理解的方法,它在許多領(lǐng)域都有廣泛的應(yīng)用,如自動(dòng)駕駛、醫(yī)療診斷、安全監(jiān)控等。然而,圖像識(shí)別算法也存在一些優(yōu)缺點(diǎn)。 一、圖像
    的頭像 發(fā)表于 07-16 11:09 ?1350次閱讀

    圖像識(shí)別算法的測(cè)試方法有哪些

    圖像識(shí)別算法的測(cè)試方法是一個(gè)廣泛而深入的話題,涉及到多個(gè)方面。 數(shù)據(jù)集的選擇 : 標(biāo)準(zhǔn)數(shù)據(jù)集 :使用廣泛認(rèn)可的數(shù)據(jù)集,如MNIST、CIFAR-10、ImageNet等,這些數(shù)據(jù)集有明確的類別劃分
    的頭像 發(fā)表于 07-16 11:06 ?452次閱讀

    圖像識(shí)別算法的核心技術(shù)是什么

    圖像識(shí)別算法是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)重要研究方向,其目標(biāo)是使計(jì)算機(jī)能夠像人類一樣理解和識(shí)別圖像中的內(nèi)容。圖像識(shí)別算法的核心技術(shù)包括以下幾個(gè)方面
    的頭像 發(fā)表于 07-16 11:02 ?572次閱讀

    opencv圖像識(shí)別有什么算法

    圖像識(shí)別算法: 邊緣檢測(cè) :邊緣檢測(cè)是圖像識(shí)別中的基本步驟之一,用于識(shí)別圖像中的邊緣。常見的邊緣檢測(cè)算法有Canny邊緣檢測(cè)器、Sobel邊
    的頭像 發(fā)表于 07-16 10:40 ?850次閱讀

    化工廠液體泄漏識(shí)別預(yù)警算法

    化工廠液體泄漏識(shí)別預(yù)警基于圖像識(shí)別算法是計(jì)算機(jī)視覺的基礎(chǔ)算法,例如VGG,GoogLeNet,ResNet等,化工廠液體泄漏識(shí)別這類
    的頭像 發(fā)表于 07-03 08:35 ?349次閱讀
    化工廠液體泄漏<b class='flag-5'>識(shí)別</b>預(yù)警<b class='flag-5'>算法</b>

    人員跌倒識(shí)別檢測(cè)算法

    人員跌倒識(shí)別檢測(cè)算法是基于視頻的檢測(cè)方法,通過對(duì)目標(biāo)人體監(jiān)測(cè),當(dāng)目標(biāo)人體出現(xiàn)突然倒地行為時(shí),自動(dòng)監(jiān)測(cè)并觸發(fā)報(bào)警。人員跌倒識(shí)別檢測(cè)算法基于計(jì)算機(jī)識(shí)別
    的頭像 發(fā)表于 06-30 11:47 ?425次閱讀
    人員跌倒<b class='flag-5'>識(shí)別</b>檢測(cè)<b class='flag-5'>算法</b>

    AI禁區(qū)徘徊監(jiān)測(cè)識(shí)別攝像機(jī)

    AI禁區(qū)徘徊監(jiān)測(cè)識(shí)別攝像機(jī)是一種基于人工智能技術(shù)的智能監(jiān)控設(shè)備,用于監(jiān)測(cè)禁止進(jìn)入或逗留的區(qū)域。這種攝像機(jī)通過高清攝像頭實(shí)時(shí)捕捉場(chǎng)景圖像,利用AI算法對(duì)人員徘徊行為進(jìn)行識(shí)別和監(jiān)測(cè),有助于
    的頭像 發(fā)表于 04-12 10:09 ?320次閱讀
    AI禁區(qū)徘徊監(jiān)測(cè)<b class='flag-5'>識(shí)別</b>攝像機(jī)

    使用ADSP-BF592做語音識(shí)別算法的疑問

    使用ADSP-BF592做語音識(shí)別算法,有兩個(gè)問題想咨詢一下:1,是否有小波變換的C代碼? 2,目前調(diào)試的樣板中ADSP-BF592的VCCIN管腳被錯(cuò)接為3.3V電壓(數(shù)據(jù)手冊(cè)中要求該管腳接
    發(fā)表于 11-29 07:50