精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何使算法公平?如何定義“公平”?

nlfO_thejiangme ? 來源:未知 ? 作者:李倩 ? 2018-08-02 09:53 ? 次閱讀

2015年,一位憂心忡忡的父親向Rhema Vaithianathan提出一個問題,這個問題至今仍然困擾著她。

當時人們聚集在賓夕法尼亞州匹茲堡的一個會議室里,聽她解釋軟件如何解決虐待兒童問題。每天,該地區的熱線都會收到幾十個懷疑孩子有危險的電話;其中一些隨后被呼叫中心工作人員標記為進行調查。但該系統并未能發現所有虐待兒童案例。

Rhema Vaithianathan 建議算法以發現虐童事件

Vaithianathan和她的同事們剛剛獲得了50萬美元的資助以建立算法來提供幫助。Vaithianathan是一位健康經濟學家,她也是新西蘭奧克蘭理工大學社會數據分析中心的聯合主管,她告訴大家該算法如何運作。例如,一個收集大量數據的工具——包括家庭背景和犯罪記錄——可以在來電時生成風險評分。這可以幫助電話篩選者標記要調查的家庭。

在Vaithianathan邀請觀眾提問后,那位父親站起來說道,他曾與毒癮斗爭,因此,社工曾將一個孩子從他家帶走。但他已戒毒一段時間。如果通過計算機評估他的記錄,他為改變生活而付出的努力是否算數?換句話說:算法是否會對他做出不公平的判斷?

Vaithianathan向他保證,人類將永遠處于循環中,所以他的努力不會被忽視。但現在已經部署了自動化工具,她仍然會考慮他的問題。計算機的計算越來越多地用于指導可能改變生活的決定,包括哪些人在被指控犯罪后被拘留;哪些家庭應受到潛在的虐待兒童調查,以及在一種稱為“預測性警務”的趨勢中,警察應該關注哪些社區。這些工具有望使決策更加一致、準確和嚴謹。但監督是有限的:沒人知道有多少工具正被使用,而且其帶來的不公平風險已經引起了人們的注意。例如,2016年,美國記者認為,用于評估未來犯罪活動風險的系統歧視黑人被告。

“我最關心的是我們構建的系統可以改善問題(但)可能最終會加劇這些問題,” Kate Crawford說道,她是AI Now 研究所的聯合創始人,該研究中心位于紐約大學,研究人工智能的社會影響。

隨著Crawford和其他人揮舞著紅旗,各國政府正試圖讓算法負起公平正義的責任。去年12月,紐約市議會通過了一項法案成立了一個工作組,建議如何共享有關算法的信息并對其進行調查以尋找偏見。今年法國總統埃馬紐埃爾·馬克龍(Emmanuel Macron)表示,該國將公開政府使用的所有算法。在本月發布的指導意見中,英國政府要求那些處理公共部門數據的人員要保持透明和負責。歐洲通用數據保護條例(GDPR)于5月底生效,這預計也將推動算法問責制。

在這種活動中,科學家們正面對復雜的問題,即如何使算法公平。正如Vaithianathan等研究人員,他們與公共機構合作,努力建立負責且有效的軟件,必須努力解決自動化工具如何帶來偏見或加劇現有的不公平現象——特別是當這些工具被置入已經存在歧視的社會系統時尤為重要。

公平權衡

2014年,當匹茲堡社會服務部的官員在呼吁提出自動化工具的建議時,他們還沒有決定如何使用它。但他們希望對新系統持開放態度。該部門數據分析,研究和評估辦公室副主任Erin Dalton說道,“我非常反對將政府資金用于黑箱解決方案,我無法告訴我們的社區我們正在做什么”。該部門擁有一個建于1999年的集中數據庫,其中包含大量的個人信息——包括住房,心理健康和犯罪記錄。Erin Dalton說,Vaithianathan的團隊在關注兒童福利上投入巨大。

阿勒格尼家庭篩查工具(AFST)于2016年8月啟動。針對每個熱線電話,呼叫中心員工都能看到由自動風險評估系統生成的分數——1至20分,其中20分對應的案例風險最高。這些是AFST預測的兒童最有可能在兩年內被趕出去的家庭。

加利福尼亞州斯坦福大學的獨立研究員Jeremy Goldhaber-Fiebert仍在評估該工具。但Dalton說初步結果表明它有所幫助。她說,呼叫中心工作人員提到調查人員的案件似乎包括更多合法關注的案例。對于具有類似情況的案例,電話篩選器似乎也在做出更一致的決策。盡管如此,其決策并不一定與算法的風險評分一致;該縣希望將兩者更緊密地聯系起來。

隨著AFST的部署,Dalton希望得到更多的幫助來確定它是否有偏見。2016年,她邀請匹茲堡卡內基梅隆大學的統計學家Alexandra Chouldechova分析該軟件是否歧視特定群體。Chouldechova已在考慮算法中的偏見,并且即將對一個引發了大量辯論的案例進行權衡。

同年5月,新聞網站ProPublica的記者報道了佛羅里達州布勞沃德縣法官使用的商業軟件,這有助于決定被控犯罪的人是否應該在審判前被釋放。記者表示,該軟件對黑人被告帶有偏見。這個名為COMPAS的工具生成的分數旨在評估當一個人在被釋放的情況下,其在兩年內犯下另一罪行的可能性。

ProPublica團隊調查了數千名被告的COMPAS分數。他們比較了黑人和白人被告,記者發現不成比例的黑人被告是“誤報”:他們被COMPAS歸類為高風險,但隨后并未被指控犯有其他罪行。

該算法的開發人員,一家名為Northpointe(現為Equivant)的密歇根公司,認為該工具沒有偏見。它說,COMPAS同樣善于預測被歸類為高風險的白人或黑人被告是否會重新犯罪。Chouldechova很快表明,Northpointe和ProPublica的公平測量標準之間存在緊張關系。預測性等同,相等的假陽性錯誤率和相等的假陰性錯誤率都是“公平”的方式,但如果兩組之間存在差異,統計上無法調和——例如白人和黑人被重新逮捕的比率(參見“如何定義公平”)。倫敦大學學院負責機器學習的研究員Michael Veale說道:“你無法擁有一切。如果你想以某種方式公平,你可能在另一個聽起來合理的定義中也是不公平的。

如何定義“公平”

研究算法偏差的研究人員表示,有很多方法可以定義公平,但這些方法有時相互矛盾。想象一下,在刑事司法系統中使用的算法會將分數分配給兩組(藍色組和紫色組),因為它們有被重新逮捕的風險。歷史數據表明紫色組的逮捕率較高,因此該模型將紫色組中的更多人分類為高風險。 即使模型的開發人員試圖避免偏見,這種情況也可能發生。這是因為用作訓練輸入的其他數據可能也與藍色或紫色相關。

高風險狀態不能完美地預測重新逮捕,但算法的開發人員試圖使預測公平:對于兩個群體而言,“高風險”相當于兩年內被逮捕的幾率是三分之二。(這種公平性被稱為預測性平等)未來逮捕率可能不會遵循過去的模式。但是在這個簡單的例子中,假設他們這樣做:正如預測的那樣,藍色組10人中的3人和紫色組10人中的6人確實是被逮捕了(可參見圖中底部的灰色條形圖)。

該算法具有預測奇偶性,但存在問題。在藍色組中,7人中有1人(14%)被誤認為是高風險;在紫色組中,4人中有2人(50%)被誤認為是高風險。所以,紫色組更有可能出現“誤報”情況,即被誤認為是高風險。

有些人會認為紫色組的假陽性率較高是歧視。但其他研究人員認為,這并不一定是算法偏差的證據,且可能存在更深層次的不平衡來源:紫色組可能首先被不公平地聚焦了。過去的數據準確預測了紫色組中將有更多人被重新逮捕,該算法可能會重現,這也許是根深蒂固的,也即一種先前存在的社會偏見。

事實上,從數學角度來說,還有更多方法來定義公平:在今年2月的一次會議上,計算機科學家Arvind Narayanan發表了題為“21種對公平的定義及其政治學”的演講,他指出還有其他方法。一些研究ProPublica案例的研究人員,包括Chouldechova,指出目前尚不清楚錯誤率是否存在偏差。斯坦福大學的計算機科學家Sharad Goel說,“他們反而反映出這樣一種情況:較之于一個群體,對另一群體的預測可能更難。但事實證明,這或多或少是一種統計假象。”

新澤西卡姆登的警察使用自動工具來決定去哪些區域巡邏

雖然統計失衡是一個問題,但不公平的更深層面潛藏在算法中——它們可能會加劇社會不平等。例如,諸如COMPAS之類的算法旨在預測未來犯罪活動的可能性,但它只能依賴于可衡量的因素,例如被捕情況。警務實踐的變化可能意味著某些社區成為不正常的目標,人們因其他社區可能被忽視的犯罪而被捕。華盛頓特區非營利性社會公正組織Upturn的董事總經理David Robinson說:“即使我們準確預測某些事情,我們準確預測的事情也可能是不公正的事情。” 這很大程度上取決于法官依賴這些算法做出決定的程度——但究竟是哪些算法卻鮮為人知。

透明度及其局限性

按照Allegheny社會服務部門采用的方式,人們對提高透明度抱有很大的興趣,Allegheny與相關人士合作并向記者敞開大門。AI Now研究所的Crawford說,算法通常會加劇問題,因為它們是“封閉的,無法進行算法審計、審查或公開辯論”。但目前尚不清楚如何使算法更加開放。Ghani說,簡單地發布模型的所有參數并不能提供有關其工作原理的深入見解。透明度也可能與保護隱私的努力相沖突。在某些情況下,披露有關算法如何工作的過多信息可能允許人們對系統進行操縱。

Crawford認為,我們需要一系列“正當程序”來確保算法的責任性。4月,AI Now研究所為有興趣負責任地采用算法決策工具的公共機構概述了一個框架;此外,它呼吁征求社區意見,并讓人們有能力就對其做出的決定提起上訴。

許多人希望法律能夠實現這些目標。Solon Barocas是康奈爾大學人工智能研究倫理與政策問題的研究員,他說,這是有一些先例的。在美國,一些消費者保護規則在對其信用做出不利決定時給予公民解釋。Veale說,在法國,早在20世紀70年代,就有賦予解釋權和自動決策爭議能力的立法。

歐洲的GDPR將于5月25日生效。一些條款——例如有關自動決策案例中涉及的邏輯信息的權利——似乎促進了算法問責制。但英國牛津互聯網研究所的數據倫理學家Brent Mittelstadt表示,GDPR可能通過為那些想要評估公平性的人創建一個“合法的雷區”來阻礙它。測試算法是否偏向某些組別的最佳方法——例如,它是否偏好一個組別而非另一個——需要了解進入系統的人的相關屬性。但Mittelstadt表示,GDPR對使用此類敏感數據的限制非常嚴格,處罰如此之高,以至于有能力評估算法的公司可能沒有動力處理這些信息。“這似乎是對我們評估公平性能力的限制。” Mittelstadt說道。

審查算法

與此同時,研究人員正在推進檢測尚未開放供公眾審查的算法偏差的策略。Barocas說,公司可能不愿意討論他們如何努力解決公平問題,因為這意味著首先承認存在問題。他說,“即使他們這樣做,其行為也只是有可能改善偏見但不能消除偏見。所以關于這一點的公開聲明也將不可避免地承認問題仍然存在。”但最近幾個月,微軟和Facebook都宣布開發檢測偏見的工具。

一些研究人員,如波士頓東北大學的計算機科學家Christo Wilson,試圖從外部發現商業算法的偏見。Wilson已創建了模擬乘客,他們聲稱正在尋找優步出租車,并將虛擬簡歷上傳到就業網站以測試性別偏見。

其他人正在構建希望可以在自我評估中普遍使用的軟件。今年5月,Ghani和他的同事發布了名為Aequitas的開源軟件,以幫助工程師、政策制定者和分析師審查機器學習模型的偏見。

現正將其虐待兒童預測模型擴展到科羅拉多州道格拉斯和拉里默縣的Vaithianathan看到了建立更好算法的價值,即使其所置入的總體系統存在缺陷。她說:“算法不能被空降到到這些復雜的系統之中,我們必須在那些了解更廣泛背景的人的幫助下實施方案。但即便是最好的努力也將面臨挑戰,因此,在缺乏直接答案和完美解決方案的情況下,透明度是最好的政策。我的原則是:如果不能保持正確,那么至少要保持誠實!”

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4599

    瀏覽量

    92641
  • 機器學習
    +關注

    關注

    66

    文章

    8377

    瀏覽量

    132406

原文標題:試問: 隨著機器學習滲透到社會各方面,我們該如何應對算法不公平問題?

文章出處:【微信號:thejiangmen,微信公眾號:將門創投】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    平衡創新與倫理:AI時代的隱私保護和算法公平

    ,如果醫生和患者都能了解AI推薦治療方案的原因,將大大增加對技術的接受度和信任。 算法公平性的保障同樣不可或缺。AI系統在設計時就需要考慮到多樣性和包容性,避免因為訓練數據的偏差而導致結果的不公平
    發表于 07-16 15:07

    彈性分組環中公平算法的參數選擇

    彈性分組環(Resilient Packet Ring,RPR)是主要用于城域網的新型MAC 協議,已被IEEE 802.17 工作組標準化。公平性是RPR 的關鍵技術之一。本文著重研究了標準算法中不同算法參數下算
    發表于 08-26 10:54 ?6次下載

    一種基于速率的公平隊列管理算法

    針對主動隊列管理算法普遍存在的公平性問題,提出基于速率的公平隊列管理算法RFED。該算法根據分組的到達速率調節丟包率,將隊列的到達速率控制在
    發表于 10-04 14:11 ?15次下載

    通用可組合的公平電子支付協議

    公平性是電子支付協議的一個基本屬性。該文基于通用可組合模型,定義公平電子支付理想函數。在可轉化簽名理想函數、注冊理想函數和安全會話理想函數輔助的混合模型下,
    發表于 11-18 15:06 ?0次下載

    基于模糊流感知的動態優先公平調度算法

    為適應網絡的動態性,提高調度公平性和資源效率,流感知優先公平調度機制需要動態的多業務區分轉發。與鏈路負載狀態相關的模糊流感知能夠實現路徑上的一致性業務區分,而
    發表于 11-24 14:16 ?12次下載

    基于鄰近點算法的比例公平優化方法

    (基于吞吐量的公平性),從而降低網絡整體的性能。為了克服這一性能異常問題,基于比例公平的優化由于其吞吐量增強能力已經引起廣大的關注。在本文中,提出了一種基于鄰近點算法的比例公平優化方法
    發表于 11-11 10:42 ?7次下載
    基于鄰近點<b class='flag-5'>算法</b>的比例<b class='flag-5'>公平</b>優化方法

    基于最大最小公平性的功率分配算法

    針對多個終端直通通信(D2D)用戶共享多個蜂窩用戶資源的公平性問題,在保證蜂窩用戶速率的前提下,提出了基于最大最小公平性( max-min faimess)的功率分配算法。該算法首先將
    發表于 12-04 11:46 ?3次下載

    云環境下能耗感知的公平性提升資源調度策略

    針對云計算環境下大量的能源消耗和一些用戶非法占有計算資源的問題,為了節約資源,同時提高系統的公平性,使所有用戶能合理地使用數據中心的所有資源,提出一種基于能耗感知的節能公平的資源調度算法
    發表于 12-11 16:42 ?1次下載
    云環境下能耗感知的<b class='flag-5'>公平</b>性提升資源調度策略

    異構云系統中基于智能優化算法的多維資源公平分配

    了解矩陣表達式使異構云系統中的主資源公平分配( DRFH)模型轉化成為整數線性規劃(ILP)模型,并提出了基于最大任務數匹配值(MTM)的初始解產生機制和使不可行解轉化為可行解的修正操作,以此提高
    發表于 12-13 17:19 ?0次下載

    基于公平心跳超時容錯機制

    故障誤判損失模型,提出公平誤判損失(FMJL)算法,使其同時滿足長作業和短作業要求;接著,設計并實現了基于FMJL算法公平超時機制。在實現了公平
    發表于 01-02 10:43 ?0次下載

    公平高效機會干擾對齊算法

    針對干擾對齊的實際應用提出的機會干擾對齊算法(OIA)存在通信資源分配不公平、所需用戶基數大等問題。為此,提出一種基于輪詢機制的公平高效機會干擾對齊算法。首先確定協作處理簇,并基于輪詢
    發表于 01-08 15:59 ?0次下載
    <b class='flag-5'>公平</b>高效機會干擾對齊<b class='flag-5'>算法</b>

    人工智能的算法公平性實現

    我們解決了算法公平性的問題:確保分類器的結果不會偏向于敏感的變量值,比如年齡、種族或性別。由于一般的公平性度量可以表示為變量之間(條件)獨立性的度量,我們提出使用Renyi最大相關系數將公平
    發表于 11-06 17:04 ?2617次閱讀
    人工智能的<b class='flag-5'>算法</b><b class='flag-5'>公平</b>性實現

    怎么讓機器理解“什么是公平

    來源:ST社區 “什么是公平”,就算是人類自己也沒有統一的標準,它有時取決于語境。不論是在家里,還是在學校,教導小孩要公平是至關重要的,但說起來容易做起來難。正因為如此,我們要如何才能將社會上所說
    的頭像 發表于 12-22 22:06 ?444次閱讀

    下行非正交多址接入系統的公平資源分配算法

    針對下行非正交多址接入系統多用戶場景,綜合考慮吞吐量、服務質量、公平性、串行干擾消除(SIC)能力等因素,提出一種基于比例速率約束的公平資源分配算法。利用比例公平思想設計自適應比例
    發表于 05-28 11:38 ?4次下載

    ReentrantLock公平鎖與非公平鎖的源碼分析

    今天為你帶來的是 ReentrantLock 公平鎖與非公平鎖的源碼分析,它是 Java 并發包下的一個 java.util.concurrent.locks 實現類,實現了 Lock 接口
    的頭像 發表于 10-13 14:13 ?635次閱讀
    ReentrantLock<b class='flag-5'>公平</b>鎖與非<b class='flag-5'>公平</b>鎖的源碼分析