對(duì)于人工智能而言,偏見(jiàn)仍然是一個(gè)問(wèn)題。
人工智能正日益影響人們的日常生活,從加速尋找冠狀病毒疫苗到預(yù)測(cè)檢查結(jié)果。然而,人們?cè)絹?lái)越擔(dān)心組織和政府如何確保他們負(fù)責(zé)任地使用它,因此,調(diào)研機(jī)構(gòu)Gartner公司今年將“負(fù)責(zé)任的人工智能”作為新興技術(shù)炒作周期中的一個(gè)新類別也就不足為奇了。該組織將其定義為“通過(guò)人工智能提高商業(yè)和社會(huì)價(jià)值、降低風(fēng)險(xiǎn)、增加信任和透明度以及減少偏差緩解”。Gartner公司認(rèn)為,最緊迫的用例之一是在全球范圍內(nèi)識(shí)別并停止生產(chǎn)深度偽造(deepfake)。
負(fù)責(zé)任的人工智能雖然是一個(gè)有價(jià)值的概念,但不足以將人工智能從潛在的偏見(jiàn)和歧視中解救出來(lái)。最近,人們對(duì)它的使用提出了質(zhì)疑,從亞馬遜發(fā)現(xiàn)它用于招聘員工的算法對(duì)女性有偏見(jiàn)。
一旦人們對(duì)一項(xiàng)技術(shù)失去了信任,就很難再獲得回報(bào)。因此,開(kāi)發(fā)和使用人工智能的組織要想提高人工智能應(yīng)用程序的可信度和透明度,就必須超越負(fù)責(zé)任的人工智能。解決方案是實(shí)現(xiàn)可解釋人工智能(XAI),即以普通人能夠理解的方式描述人工智能解決方案的目的、原理和決策過(guò)程。
可解釋人工智能(XAI)將使部署解決方案的組織可以放心地以自己熟悉的方式進(jìn)行決策。例如,在企業(yè)依賴特定個(gè)人的詳細(xì)知識(shí)的情況下,例如在客戶入職或金融部門的了解其客戶(KYC)檢查期間,至關(guān)重要的是,它可以快速輕松地證明每個(gè)決定的合理性,以避免任何偏見(jiàn)指控。
可解釋人工智能(XAI)還將確保那些受其決定影響的人可以更有信心地對(duì)他們進(jìn)行公正的對(duì)待,而不受“變異算法”的描述。在公眾參與的領(lǐng)域,決策過(guò)程完全透明至關(guān)重要。感知到的偏見(jiàn)可能會(huì)導(dǎo)致人工智能在某個(gè)特定的應(yīng)用中被完全禁止,例如最近的一項(xiàng)裁決,即南威爾士州警察使用自動(dòng)面部識(shí)別技術(shù)是非法的。
從自愿采用可解釋人工智能(XAI)到法規(guī)
目前,可解釋人工智能(XAI)是可選的,盡管一些企業(yè)已經(jīng)朝著這個(gè)方向邁出了一步。例如,今年亞馬遜公司宣布警方停止使用其面部識(shí)別產(chǎn)品一年,而IBM公司出于對(duì)人權(quán)影響的擔(dān)憂,決定完全放棄面部識(shí)別研究。
但是,監(jiān)管只能是時(shí)間問(wèn)題。2020年7月,ICO發(fā)布了指南,以幫助組織向受其影響的人們解釋由人工智能提供或協(xié)助的過(guò)程、服務(wù)和決策。該指南基于與艾倫?圖靈研究所聯(lián)合進(jìn)行的公眾和行業(yè)參與研究。
根據(jù)英國(guó)發(fā)布《2018年數(shù)據(jù)保護(hù)法》,這不是法定的行為準(zhǔn)則,而是有關(guān)最佳實(shí)踐的建議。但是預(yù)計(jì)組織很快將必須使人工智能系統(tǒng)從啟動(dòng)就變得透明,這表明其算法以與數(shù)據(jù)保護(hù)法規(guī)兼容的方式處理數(shù)據(jù)。
犯錯(cuò)是人之常情——謹(jǐn)防絕對(duì)正確的算法
組織可以使用許多技術(shù)來(lái)開(kāi)發(fā)可解釋人工智能(XAI)。除了不斷地向系統(tǒng)學(xué)習(xí)新事物外,他們還需要確保它正在學(xué)習(xí)正確的信息,而不是使用一個(gè)錯(cuò)誤或一條有偏見(jiàn)的信息作為未來(lái)所有分析的基礎(chǔ)。多語(yǔ)言語(yǔ)義搜索非常重要,尤其是對(duì)于非結(jié)構(gòu)化信息。它們可以過(guò)濾掉白噪音,并將多次看到相同風(fēng)險(xiǎn)或機(jī)遇的風(fēng)險(xiǎn)降至最低。
組織還應(yīng)該在其AI中添加人為元素,尤其是在建立監(jiān)視列表時(shí)。如果系統(tǒng)自動(dòng)標(biāo)記犯罪定罪但不對(duì)其進(jìn)行嚴(yán)重程度評(píng)分,則超速駕駛的人可能會(huì)被判處長(zhǎng)期監(jiān)禁。對(duì)于可解釋人工智能(XAI),系統(tǒng)應(yīng)始終偏向正面。如果出現(xiàn)危險(xiǎn)信號(hào),則人工智能系統(tǒng)不應(yīng)給出一個(gè)統(tǒng)一的“否”,而應(yīng)發(fā)出警報(bào)以供人工檢查。
最后,即使是最好的人工智能系統(tǒng)也會(huì)產(chǎn)生一些錯(cuò)誤。其性能應(yīng)該是80%的正確率,否則就不可能相信系統(tǒng)運(yùn)行正常。可以解決錯(cuò)誤,并不斷調(diào)整性能,但是永遠(yuǎn)不會(huì)完美。
人工智能顯然是未來(lái)的方式,因?yàn)樗梢员热祟惛斓胤治龃罅繑?shù)據(jù),并在廣泛的應(yīng)用中提供幫助。確保開(kāi)發(fā)可解釋人工智能(XAI)將建立依賴其決策的人們的信心,并幫助其在新領(lǐng)域中得到認(rèn)可。
責(zé)任編輯:tzh
-
數(shù)據(jù)
+關(guān)注
關(guān)注
8文章
6909瀏覽量
88849 -
AI
+關(guān)注
關(guān)注
87文章
30239瀏覽量
268476 -
人工智能
+關(guān)注
關(guān)注
1791文章
46896瀏覽量
237669
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論