算法是一面鏡子,映射了人類社會許多固有的偏見。
2014年,亞馬遜的工程師著手開發(fā)一款人工智能招聘軟件,利用算法和數(shù)據(jù)分析來篩選候選人,以此避免人類招聘官身上特有的“感情用事”問題。事與愿違,這款軟件雖避免了“感情用事”問題,卻在“偏見”上犯下更大的錯誤軟件編寫者將人類招聘官的篩選模式寫入算法,現(xiàn)實世界中無意識的偏見也帶進了機器。
隨著智能技術(shù)的不斷普及,算法做決策成為趨勢。避免人類社會的偏見映射到算法世界中,是當下數(shù)字化生存中的重要命題。
此前,AI&Society專欄發(fā)布的《算法偏見:看不見的“裁決者”》試圖剖析算法偏見所帶來的問題,本文著重梳理當前針對算法偏見的一些解決方案。
在機器學(xué)習(xí)過程中,算法偏見會從三個環(huán)節(jié)中被滲透:數(shù)據(jù)集的構(gòu)成缺乏代表性,工程師制定算法規(guī)則時、打標者處理非結(jié)構(gòu)化素材,都有可能混入偏見。
在對500名機器學(xué)習(xí)領(lǐng)域工程師調(diào)查后得出結(jié)論:如今機器學(xué)習(xí)工程師面臨的最大問題之一是他們知道出了一些問題,但是不知道具體是哪里出了問題,也并不知道為什么會出現(xiàn)問題。”前微軟公司執(zhí)行副總裁沈向洋指出。
由于算法偏見的不可知、不可查,讓反偏見這項工作變得棘手。在現(xiàn)有應(yīng)對體系下,無論是政策制度、技術(shù)突破還是創(chuàng)新型反制,都從不同的角度出發(fā)嘗試解決這個已經(jīng)超越技術(shù)的問題。
解決思路一:構(gòu)建更公正的數(shù)據(jù)集
不公正的數(shù)據(jù)集是偏見的土壤如果用于訓(xùn)練機器學(xué)習(xí)算法的數(shù)據(jù)集無法代表客觀現(xiàn)實情況,那么這一算法的應(yīng)用結(jié)果往往也帶有對特定群體的歧視和偏見。因此,算法偏見最直接的解決思路就是將原本不均衡的數(shù)據(jù)集進行調(diào)整。
修正數(shù)據(jù)比例:利用更公平的數(shù)據(jù)源確保決策公正性。2018年6月,微軟與專家合作修正和擴展了用于訓(xùn)練 Face API 的數(shù)據(jù)集。Face API 是微軟 Azure 中的一個 API,它提供預(yù)訓(xùn)練算法以檢測、識別和分析人臉圖像中的屬性。新數(shù)據(jù)通過調(diào)整膚色、性別和年齡等所占的比例,將膚色較深的男性和女性之間的識別錯誤率降低 20 倍,女性的識別誤差率降低 9 倍。也有公司嘗試通過構(gòu)建全球社區(qū)的方式優(yōu)化數(shù)據(jù)集。通過全球社區(qū),大規(guī)模地把某個組織可能在尋找的任何信息匯集起來,并以這種廣度和深度相結(jié)合的方式進行,這使得引入截然不同的數(shù)據(jù)來訓(xùn)練AI系統(tǒng)成為可能,以幫助克服算法偏見等問題。
“大數(shù)據(jù)”與“小數(shù)據(jù)”結(jié)合:在數(shù)據(jù)量的基礎(chǔ)上確保精度。數(shù)據(jù)集不應(yīng)局限于粗放收集,而在于精準把握。僅僅在數(shù)據(jù)的量上做文章往往不能帶來更加公正的結(jié)果,因為大數(shù)據(jù)分析側(cè)重相關(guān)性,導(dǎo)致在推導(dǎo)因果關(guān)系時容易出現(xiàn)誤差。引入小數(shù)據(jù)可以部分解決這個問題。小數(shù)據(jù)指聚焦于用戶個體的數(shù)據(jù)形態(tài),它更關(guān)注細節(jié),重視差異,能更呈現(xiàn)更加準確的數(shù)據(jù),也避免推導(dǎo)因果關(guān)系時出現(xiàn)誤差。所以,將信息豐富的大數(shù)據(jù)與信息精準的小數(shù)據(jù)相結(jié)合可在一種程度上避免誤差。
自主測試數(shù)據(jù)集:偵測數(shù)據(jù)集中偏見。麻省理工學(xué)院算機科學(xué)與人工智能實驗室(簡稱MIT SCAIL)的科學(xué)家發(fā)表了一篇題為《Uncovering and Mitigating Algorithmic Bias through Learned Latent Structure(通過學(xué)習(xí)潛在結(jié)構(gòu)提示并緩解算法偏見)》的論文,展示了DB-VEA(一種無監(jiān)督式學(xué)習(xí))可以通過重新采樣來自動消除數(shù)據(jù)偏見的 AI 系統(tǒng)。該模型不僅學(xué)習(xí)面部特征(如膚色、頭發(fā)),還學(xué)習(xí)諸如性別和年齡等其它特征,所以分類準確率明顯增加,且針對種族和性別的分類偏見明顯下降。
由此可見,構(gòu)建更加公正的數(shù)據(jù)集無疑是算法偏見根本性的解決方法之一,也是許多企業(yè)、學(xué)者努力的方向,并且目前在這一領(lǐng)域的確有所突破。
解決思路二:提升“算法透明度”
盡管算法模型由工程師編寫而成,但很多時候,人類并不明白計算機經(jīng)歷了怎樣的過程才得出某一特定結(jié)果,這就是機器學(xué)習(xí)中的“算法黑箱”問題。因此,要求企業(yè)提高算法模型的透明度,從中找出偏見“病因”,就成為了當下解決“黑箱”困境的途徑之一。無論是通過政策、條款的“他律”,還是企業(yè)通過倫理“自律”還是技術(shù)探索,在對抗算法偏見時,都持續(xù)聚焦于打開“黑箱”。
自律:企業(yè)的倫理主張
在過去兩年中,許多大型科技公司都發(fā)布了人工智能的應(yīng)用原則,其中均涉及到偏見治理的部分,可以將這類原則視為科技公司立場的聲明和自律的起點。微軟、谷歌和IBM,均強調(diào)算法的透明性和公平性。值得說明的是,微軟設(shè)立人工智能與道德標準(AETHER)委員會來落實其原則,并計劃未來推出的每一個人工智能產(chǎn)品都要經(jīng)過人工智能道德倫理審查。
也有企業(yè)采用委員會之外的機制。谷歌推出Model Cards功能也是對提升透明度的回應(yīng)。Model Cards類似算法說明書,對采用的算法進行解釋,告知其優(yōu)點和局限性,甚至在不同數(shù)據(jù)集中的運算結(jié)果。
他律:監(jiān)督過程透明與結(jié)果正義
2018年5月25日正式生效的《歐盟一般數(shù)據(jù)保護條例》(GDPR),2018年8月30日英國政府更新的《數(shù)據(jù)倫理框架》,要求算法需要具備一定的公開性、透明性與可解釋性。2019年4月10日,美國國會兩院議員提出《算法問責法案》,要求大型科技公司評估其自動決策系統(tǒng)帶來的影響,并消除其中因種族、膚色、宗教、政治信仰、性別或其它特性差異而產(chǎn)生的偏見。
一些公益組織也因意識到算法偏見的危害性,幫助企業(yè)建立機制保障算法公正。算法正義聯(lián)盟(Algorithm Justice League)將企業(yè)應(yīng)遵守的行為概括和濃縮成了可以簽署的協(xié)議,通過問責算法的設(shè)計、開發(fā)和部署者,在實踐中改善現(xiàn)有算法,并檢查企業(yè)提升成果。而這一手段的確為算法糾偏起到了敦促作用:其創(chuàng)始人Joy Buolamwini在評估IBM算法后將結(jié)果反饋,并在一天內(nèi)收到了IBM回應(yīng)稱會解決這一問題。之后當Buolamwini重新評估該算法時,發(fā)現(xiàn)IBM的算法對于少數(shù)群體面部識別的準確率有了明顯提升:識別深色男性的準確率從88%躍升至99.4%,深色女性的準確率從65.3%升至83.5%。
“算法透明”不是滿分答案?
然而,通過政策條例和倫理準則提升算法透明度,依然存在一些局限性。首先,要求算法具備可解釋性與可能企業(yè)的利益產(chǎn)生強烈沖突。芝加哥大學(xué)數(shù)據(jù)科學(xué)與公共政策中心主任 Rayid Ghani認為,簡單地公布一個模型的所有參數(shù)并不能提供對其工作機制的解釋在某些情況下,透露太多關(guān)于算法工作原理的信息可能會讓不懷好意的人攻擊這個系統(tǒng)。2019年12月的一篇論文也指出,解釋黑箱算法的兩大技術(shù)LIME和SHAP的變體有可能遭到黑客入侵,這意味著“AI做出的解釋可能被蓄意篡改,導(dǎo)致人們對模型及其給出的解釋失去信任”。
第二,問責法案的核心在于促成企業(yè)自查自糾。但這種自上而下的制度無疑為企業(yè)增加了巨額工作量,在一輪輪審查評估中,技術(shù)進度將受到掣肘,企業(yè)的創(chuàng)新力也會被影響。
解決思路三:技術(shù)創(chuàng)新反偏見
當偏見被隱藏在無數(shù)代碼中時,工程師們想到用技術(shù)本身解決技術(shù)問題。這一途徑并非是從偏見來源入手,而是創(chuàng)造性地利用技術(shù)手段偵測偏見、解除偏見。
單詞嵌入解決搜索中的性別偏見:微軟研究人員從新聞、網(wǎng)頁數(shù)據(jù)中的文本,發(fā)現(xiàn)詞匯之間在建立關(guān)聯(lián)時表現(xiàn)出一些明顯特征,例如“sassy(刁蠻)”、“knitting(編織)”這樣的詞更靠近女性,而“hero(英雄)”、“genius(天才)”更靠近男性。之所以會有這種現(xiàn)象,原因在于訓(xùn)練算法用的基準數(shù)據(jù)集通常是來自新聞和網(wǎng)頁的數(shù)據(jù)本身,就存在著由語言習(xí)慣造成的“性別偏見”,算法也自然“繼承”了人類對這些詞匯理解的性別差異。微軟提出了一個簡單易行的方案:在單詞嵌入中,刪除區(qū)分“他”和“她”的判斷維度,用于降低“偏見的展示”。當然,這樣“簡單粗暴”的方式只能運用在文本搜索領(lǐng)域,在更多實際應(yīng)用場景下,人工智能的“黑箱”特性使性別或種族與更多更復(fù)雜的參數(shù)相勾連,因此很難通過直接刪除來完成偏見的剔除。
通過差分測試(differential testing)暴露系統(tǒng)缺陷:哥倫比亞大學(xué)的研究者開發(fā)了一款名為DeepXplore的軟件,它可以通過“哄騙”系統(tǒng)犯錯,以暴露算法神經(jīng)網(wǎng)絡(luò)中的缺陷。DeepXplore使用了差分測試(differential testing),一種比較多個不同系統(tǒng)并查看它們對應(yīng)輸出差異的概念:DeepXplore以不同的方式看待事物,如果其他模型都對給定的輸入做出一致的預(yù)測,而只有一個模型對此做出了不同的預(yù)測,那么這個模型就會被判定有一個漏洞。這一研究為打開黑箱做出了重要的貢獻,因為它可以通過激活幾乎100%的神經(jīng)網(wǎng)絡(luò),來曝光算法中可能出現(xiàn)的無數(shù)個問題。
偏見檢測工具:在2018年 9 月,谷歌推出了新工具 What-If,這是 TensorBoard 中用于檢測偏見的工具。利用該工具,開發(fā)者可以通過交互式可視界面和反事實推理探究機器學(xué)習(xí)模型的特征重要性,找出誤分類原因、確定決策邊界,以及檢測算法公平性等。同樣,IBM也將其偏見檢測工具AI Fairness 360 工具包開源,其中包括超過 30 個公平性指標和 9 個偏差緩解算法,研究人員和開發(fā)者可將工具整合至自己的機器學(xué)習(xí)模型里,檢測并減少可能產(chǎn)生的偏見和歧視。
技術(shù)本身被用于打擊偏見,是一種可操作性極強的方法,因為工程師們往往擅長于用技術(shù)解決實際問題。但是從目前的成果來看,大多技術(shù)突破還僅處于初級階段,停留在檢測偏見,消除偏見可能還待下一階段努力。
寫在最后:
現(xiàn)實社會中的偏見產(chǎn)生的原因盤根錯節(jié),致力于消除偏見的運動綿延不息,也尚未徹底將其消滅。眼下,偏見化身為數(shù)字記憶,狡黠又隱蔽地藏身于每一次不經(jīng)意的雙擊,每一個微小的決策,卻能顯著影響人們被對待的方式。
更公正的數(shù)據(jù)集,更及時的誤差檢測,更透明的算法過程……科技公司、科研機構(gòu)、監(jiān)管部門以及第三方組織的協(xié)同努力對算法偏見宣戰(zhàn)。這些舉措未必徹底消除偏見,但能極大避免技術(shù)無限放大社會固有的偏見。
相比將算法偏見全然怪罪于技術(shù),更重要的是意識到,技術(shù)作為一種工具,應(yīng)用應(yīng)有邊界,它滲入日常生活的深度、決策被采納的程度,需審慎決策。
責任編輯:ct
評論
查看更多