歐盟基本權利機構(FRA)發布了一份關于人工智能的報告,深入探討了必須考慮的技術倫理問題。
聯邦鐵路局的這份報告題為《走向正確的未來》(Getting The Future Right),開篇就介紹了人工智能已經讓生活變得更好的一些方法,比如幫助癌癥診斷,甚至預測入室盜竊可能發生在哪里。
“可能性似乎無窮無盡,”聯邦鐵蹄局局長邁克爾奧弗萊厄蒂在報告的前言中寫道。“但在使用人工智能時,我們如何才能全面維護基本權利標準?”
為了回答這個問題,聯邦鐵路局采訪了100多名公共行政官員、私營公司員工和各種專家。
有證據表明,算法存在偏見,這可能導致自動化的社會問題,如種族檔案如果人工智能的全部潛力將為整個社會打開,這是一個需要回答的問題。
‘Flaherty說:
“人工智能并非絕對正確,它是由人制造的而人也會犯錯。”這就是為什么人們需要意識到人工智能何時被使用,它是如何工作的,以及如何挑戰自動決策。歐盟需要澄清現有規則如何適用于人工智能。組織需要評估他們的技術如何在開發和使用人工智能的過程中干擾人們的權利。我們有機會塑造不僅尊重我們的人權和基本權利,而且保護和促進它們的人工智能。”
人工智能正以某種形式應用于幾乎每一個行業,如果不是現在,也會在不久的將來。
人工智能的偏見在某些行業比其他行業更危險。糖霜是一個明顯的例子,但在金融服務等領域,它可能意味著一個人得到了貸款或抵押貸款,而另一個人卻申請不到貸款。
如果沒有適當的透明度,這些偏見可能會在沒有人知道這些決定背后的原因的情況下發生,這可能只是因為有人在不同的社區長大,每個自動決策都對人有非常真實的影響。
聯邦鐵路局呼吁歐盟:
確保人工智能尊重所有基本權利,人工智能可以影響許多權利,而不僅僅是隱私或數據保護。它還可能歧視或妨礙正義。未來任何人工智能立法都必須考慮到這一點,并制定有效的保障措施。
人們可以對人工智能的決策提出質疑,人們需要知道何時使用人工智能,如何使用人工智能,以及如何以及在何處投訴。使用人工智能的組織需要能夠解釋他們的系統是如何做出決策的。
在使用人工智能減少負面影響之前和期間進行評估,私人和公共組織應該對人工智能如何損害基本權利進行評估。
提供更多資料保護規則的指引,歐盟應進一步澄清資料保護規則如何適用于人工智能。在使用人工智能時,自動化決策的含義以及人類審查的權利也需要更加明確。
評估人工智能是否歧視,對人工智能歧視的可能性及其影響的認識相對較低。這就要求提供更多的研究資金來研究人工智能潛在的歧視性影響,以便歐洲能夠防范它。
創建一個有效的監督系統,歐盟應該投資一個更“一體化”的系統,讓企業和公共行政部門在使用人工智能時負起責任。當局需要確保監督機構有足夠的資源和技能來完成這項工作。
近年來,歐盟加強了對谷歌等“大型科技”公司的審查,原因是它們擔心侵犯隱私的做法和濫用市場地位。上周,人工智能新聞報道,谷歌解雇了人工智能倫理研究負責人蒂姆尼特格布魯(Timnit Gepu),原因是她在電子郵件中批評了自己的雇主。
谷歌首席執行官桑達爾皮查伊在一份備忘錄中寫道:“一名才華橫溢的杰出黑人女性領導人不幸離開谷歌,我們需要為此承擔責任。
“對我來說,讓我們的黑人、女性以及沒有得到充分代表的谷歌員工知道,我們重視你們,你們確實屬于谷歌,這非常重要。”
格布魯本周接受了BBC的采訪,她在采訪中稱谷歌和大型科技公司是“制度上的種族主義者”。考慮到這一點,聯邦鐵路局報告中的呼吁似乎尤為重要。
責任編輯:YYX
-
谷歌
+關注
關注
27文章
6142瀏覽量
105116 -
人工智能
+關注
關注
1791文章
46896瀏覽量
237672
發布評論請先 登錄
相關推薦
評論