近年來,人工智能在自動駕駛汽車、醫療、傳媒、金融、工業機器人以及互聯網服務等越來越多領域和場景應用,其影響范圍越來越寬廣。各國產業巨頭已經投入大量的精力和資金,開展人工智能關鍵技術的攻關與應用相關的研究與產品開發,并紛紛推出了不同的人工智能平臺與產品。這些發展一方面帶來了效率的提升、成本的降低,另一方面也給社會帶來了全新的倫理問題。
對人工智能倫理問題的探討,既包括形而上學的研究,也包括尋求解決實際的問題和求得社會共識的討論。如何在人工智能這一全新的技術條件下發現倫理共識,對經濟、社會和政治有著深遠意義。目前,各國、各個行業組織、社會團體和人工智能領域的商業公司紛紛提出人工智能的倫理準則,對人工智能技術本身以及其應用進行規制。中國政府把人工智能作為產業升級和經濟轉型的主要驅動力,鼓勵、扶持和推動人工智能的發展。在我國推動人工智能發展的關鍵時期,開展人工智能倫理問題的探討有極為重要的意義。在此背景下,本文關注人工智能所引發的短期與長期的倫理問題以及相應的治理對策,以期人工智能真正造福人類。
人工智能倫理問題與來源
在藝術作品中,不少人熟悉弗蘭肯斯坦的形象——一個在雷電中誕生的人和機器結合的怪物。人們對這些強大卻并不良善的力量,通常會感到恐懼。人工智能會不會和弗蘭肯斯坦這個怪物一樣呢?我們會不會創造一種技術最后毀滅了我們人類?包括埃隆·馬斯克在內的一眾技術領袖,公開提出了這個問題,這迅速引起了公眾的注意。在人工智能技術語境下,機器的自主性已經超出人之前所預期的范圍,這當然要求有新的責任體系的建構。
人工智能倫理在公眾討論中最有名的雛形,來自科幻小說作者阿西莫夫提出的機器人三定律。今天我們知道,阿西莫夫機器人三定律并不能一勞永逸地建立對人工智能的合理約束,但它的真正價值是提出了一個可能性。這個可能性就是我們所創造的技術——在處理某些問題上比我們要迅速,在機械、物理力量上要比我們強的“自主”決策主體——不僅不會傷害人類,反而能夠造福人類社會。三定律所要處理的核心問題是人的主體性問題,這也是探討人工智能倫理和治理的核心問題。關于人工智能倫理和治理,無論是算法決策相關的問題、數據與隱私相關的問題和社會影響相關的問題,都關涉人的主體性問題。
從人工智能現有能力/技術潛力與它給人類社會帶來的負面后果的角度來看,會產生兩大類問題:1.人工智能被委以對人類事務做決策的能力,但它對決策結果的倫理判斷能力不足;2.人類缺乏引導人工智能發揮作用的終極倫理準則。
第一類問題來自我們對人工智能系統對其決策結果的倫理意義缺乏判斷的憂慮。人工智能往往被用來解決一個具體問題,而且只能通過已有的有限數據來作出決策,往往無法像人一樣理解更廣的社會和倫理語境。故此,我們對人工智能缺乏對決策后果的倫理意義的認知有恐懼,這是完全可以理解的。當人工智能決策的后果涉及一個結果和另外一個結果之間的比較時,往往造成難以預料的后果。例如,人可能給人工智能系統一個獲取食物的指令,結果這個系統卻殺死了人的寵物。這是因為人工智能對某個結果的倫理意義無法完全理解,以致于錯誤地執行了指令。我們對人工智能對決策結果的倫理判斷能力不足的憂慮,在人工智能技術本身缺乏透明度(黑箱問題)時就更加嚴重了。人工智能采納的機器學習往往因為算法(例如機器學習)和算力限制的原因,無法回溯機器作出決定的具體機制。無法回溯會帶來我們在事先預測后果和事后作出糾正的能力的局限,導致我們在決定是否應用人工智能技術的問題上躊躇不決。
第二類問題來自我們對人工智能的潛力的憂慮。人工智能可能成為人類全部決定的參與和影響者,但我們尚且不知道沒有任何已知的倫理準則能指引上述行為。人類創造的“上帝”無力護理這個世界,這讓我們恐懼震驚。我們擔心隨著人工智能的發展,它會導致已有的社會問題進一步惡化,同時可能帶來新的社會問題。
從上述前提出發,筆者從目的、手段兩個層面提出思考人工智能倫理(嵌入機器的倫理)的兩個基本方向:技術必須促進人類的善(體現在人的根本利益原則);在越來越發達的機器的自主性背景下確認人的主體性(體現在責任原則)。換言之,認識到新的技術本身的特征和它的潛在社會影響,我們看到人工智能倫理要強調:(1)人可以利用人工智能得到更大的能力(行善/傷害),因此有更大的責任,所以應當更加強調歸責性;(2)人工智能則必須服從人類設定的倫理規則。這也是《人工智能標準化白皮書(2018)》中提出了人工智能設計和應用中應遵循的兩個基本原則的基本依據。違反人的根本利益原則的人工智能,無論是用來欺詐顧客的營銷算法、用于司法造成歧視部分公民的司法決策系統,還是對個人信息的過度收集和濫用,都違反人工智能倫理原則。
根據人工智能倫理風險的具體性質與特征,可從算法、數據和應用三個方面度來梳理人工智能的風險。對倫理風險的治理,需要立法和政策明確各相關主體的責任,包括信息提供者、信息處理者和系統協調者。此外,人工智能還可能對社會產生遠期發展的風險,如對既有的就業、市場競爭秩序、產權等法律制度的挑戰,甚至生產方式的根本變革,這些我們將其歸入長期和間接的倫理風險之中。
算法方面
算法方面的風險主要包括算法安全問題、算法可解釋性問題、算法歧視問題和算法決策困境問題。算法安全問題產生于算法漏洞被黑客攻擊和惡意利用的挑戰,同時算法從設計、訓練到使用中面臨可信賴性問題和算法隨時可用對可靠性帶來挑戰。
算法可解釋性涉及人類的知情利益和主體地位,對人工智能的長遠發展意義重大。國務院頒布《新一代人工智能發展規劃》,同時,潘云鶴院士提到人工智能應用的一個需要關注的問題是算法的不可解釋性。算法可解釋性問題在國外也引起媒體和公眾的關注。例如,電氣和電子工程師協會(IEEE)在2016年和2017年連續推出的《人工智能設計的倫理準則》白皮書,在多個部分都提出了對人工智能和自動化系統應有解釋能力的要求。美國計算機協會美國公共政策委員會在2017年年初發布了《算法透明性和可問責性聲明》,提出了七項基本原則,其中一項即為“解釋”,希望鼓勵使用算法決策的系統和機構,對算法的過程和特定的決策提供解釋。2017年,美國加州大學伯克利分校發布了《對人工智能系統挑戰的伯克利觀點》,從人工智能的發展趨勢出發,總結了九項挑戰和研究方向。其中之一,即第三項,就是要發展可解釋的決策,使人們可以識別人工智能算法輸入的哪些特性引起了某個特定的輸出結果。
與可解釋性問題常常同時出現的是算法歧視問題,即在看似中立的算法中,由于算法的設計者的認知存在某種偏見,或者訓練算法使用了有問題的數據集等原因,帶來了人工智能系統決策出現帶有歧視性的結果。這類例子媒體時有報道,例如在金融領域“降低弱勢群體的信貸得分”、“拒絕向‘有色人種’貸款”、“廣告商更傾向于將高息貸款信息向低收入群體展示”等。
算法歧視主要分為“人為造成的歧視”“數據驅動的歧視”與“機器自我學習造成的歧視”三類。人為造成的歧視,是指由于人為原因而使算法將歧視或偏見引入決策過程中。數據驅動造成的歧視,是指由于原始訓練數據存在偏見性,而導致算法執行時將歧視帶入決策過程中。算法本身不會質疑其所接收到的數據,只是單純地尋找、挖掘數據背后隱含的模式或者結構。如果數據一開始就存在某種選擇上的偏見或喜好,那么算法會獲得類似于人類偏見的輸出結果。機器自我學習造成的歧視,是指機器在學習的過程中會自我學習到數據的多維不同特征,即便不是人為地賦予數據集某些特征,或者程序員或科學家刻意避免輸入一些敏感的數據,但是機器在自我學習的過程中,仍然會學習到輸入數據的其它特征,從而將某些偏見引入到決策過程中,這就是機器自我學習造成的歧視。
算法決策困境源于人工智能自學習能力導致的算法結果的不可預見性。為此要減少或杜絕算法決策困境,除了提高算法的可解釋性,還可以引入相應的算法終結機制。
數據方面
數據方面的風險主要包括侵犯隱私的風險和個人敏感信息識別與保護的風險。在現代社會,隱私保護是信任和個人自由的根本,同時也是人工智能時代維持文明與尊嚴的基本方式。人工智能時代下侵犯隱私的風險更大,受害者也更多。
傳統法律規范對隱私的保護集中于對個人在私人領域、私人空間活動的保護,以及個人私密的、非公開的信息保護。在個人信息的基礎之上,法律規范區分普通個人信息和個人敏感信息。法律通常對個人敏感信息予以更高的保護,例如對個人敏感信息的處理需要基于個人信息主體的明示同意,或重大合法利益或公共利益的需要等,嚴格限制對個人敏感信息的自動化處理,并要求對其進行加密存儲或采取更為嚴格的訪問控制等安全保護措施。個人敏感信息在授權同意范圍外擴散,或者個人信息的擴散超出收集、使用個人信息的組織和機構控制范圍,以及使用者超出授權使用(如變更處理目的、擴大處理范圍等),都可能對個人信息主體權益帶來重大風險。
人工智能技術的應用極大地擴展了個人信息收集的場景、范圍和數量。圖像識別、語音識別、語義理解等人工智能技術實現海量非結構化數據的采集,而人工智能與物聯網設備的結合豐富了線下數據采集的場景。例如,家用機器人、智能冰箱、智能音箱等各種智能家居設備走進人們的客廳、臥室,實時地收集人們的生活習慣、消費偏好、語音交互、視頻影像等信息;各類智能助手在為用戶提供更加便捷服務的同時,也在全方位地獲取和分析用戶的瀏覽、搜索、位置、行程、郵件、語音交互等信息;支持面部識別的監控攝像頭,可以在公共場合且個人毫不知情的情況下,識別個人身份并實現對個人的持續跟蹤。這些都需要法律進一步地規范。
社會方面
與社會相關的倫理問題主要包括算法濫用和誤用。算法濫用和誤用是指人們利用算法進行分析、決策、協調、組織等一系列活動中,其使用目的、使用方式、使用范圍等出現偏差并引發不良影響或不利后果的情況。例如,人臉識別算法能夠提高治安水平、加快發現犯罪嫌疑人的速度等,但是如果把人臉識別算法應用于發現潛在犯罪人或者根據臉型判別某人是否存在犯罪潛質,就屬于典型的算法濫用。由于人工智能系統的自動化屬性,算法濫用將放大算法所產生的錯誤效果,并不斷強化成為一個系統的重要特征。
算法濫用主要由算法設計者出于經濟利益或者其他動機的操縱行為、平臺和使用者過度依賴算法、將算法的應用盲目拓展到算法設計未曾考慮的領域等。電商平臺算法設計者推薦不符合用戶利益的產品,或者娛樂平臺為了自身的商業利益對用戶的娛樂或信息消費行為進行誘導、導致用戶沉迷等,都是算法設計者操縱行為的展現。在醫療領域過度依賴人工智能平臺的讀圖診斷,導致誤診,以及在安防領域和犯罪誤判導致的問題,都直接關系到公民的人身安全與自由。
應當注意的是,與社會相關的倫理問題有如下特性:其一,它們與個人切身利益密切相關,如算法應用在犯罪評估、信用貸款、雇傭評估等關切人身利益的場合,對個人切身利益的影響廣泛。其二,它們帶來的問題通常難以短時間應對,例如深度學習是一個典型的“黑箱”算法,如果深度學習為基礎建立的模型存在歧視,應對時難以查清原因。其三,在商業應用中出現這類問題時,由于資本的逐利性,公眾權益容易受到侵害。
人工智能治理原則與實踐
人工智能技術的特質及其倫理挑戰,給社會的治理帶來了問題。傳統上,治理所預設能夠遵循規則的主體(Agent),也就是人本身。今天我們認識到人工智能的特征在于其高度的自主性,即其決策不再需要操控者進一步的指令,考慮到這種決策可能會產生人類預料不到的結果,人工智能技術的設計者和應用者必須在人工智能技術研發、應用的各個環節貫徹倫理原則,以實現對人工智能的有效治理。
在傳統技術領域,常見的防止損害的方式是在造成傷害之后進行干預。但是,等待人工智能系統造成傷害之時才考慮干預,很多時候為時已晚。一個更好的方法是將即時和持續的倫理風險評估和合規體系建設作為系統運行的一個組成部分,即時和持續評估人工智能系統是否存在倫理風險、并在損害產生之前以及損害不大的時候就通過合規體系進行處理。即時和持續的風險評估對于人工智能系統的保障要比按下“緊急按鈕”要有效得多。
故此,我們在討論人工智能治理應遵循的思路和邏輯時,必須警醒行業自律的有限性和立法的滯后性。如阿西莫夫等科技倫理的思想者所意識到的,必須將倫理在技術層面就進行明確,才能保證治理的有效性。構建人工智能的倫理標準是治理不可或缺的一面。此外,根據法律和政策本身的特征來制定法律、完善政策、設立管制機構,也是治理必須執行的方法。
國內外人工智能治理方面的探索值得我們關注和借鑒。例如,歐盟通過對機器人規制體現了依據人工智能倫理來設計治理體系的前沿探索。美國于2016年出臺的戰略文件就提出要理解并解決人工智能的倫理、法律和社會影響。英國政府曾在其發布的多份人工智能報告中提出應對人工智能的法律、倫理和社會影響,最為典型的是英國議會于2018年4月發出的長達180頁的報告《英國人工智能發展的計劃、能力與志向》。
聯合國于2017年9月發布《機器人倫理報告》,建議制定國家和國際層面的倫理準則。電氣和電子工程師協會(Institute of Electrical and Electronics Engineers,IEEE)于2016年啟動“關于自主/智能系統倫理的全球倡議”,并開始組織人工智能設計的倫理準則。在未來生命研究所(future of life institute,FLI)主持下,近4000名各界專家簽署支持23條人工智能基本原則。
我國也在這個方面開展了探索與實踐。2017年發布的《新一代人工智能發展規劃》提出了中國的人工智能戰略,制定促進人工智能發展的法律法規和倫理規范作為重要的保證措施被提了出來。2018年1月18日,在國家人工智能標準化總體組、專家咨詢組的成立大會上發布了《人工智能標準化白皮書(2018)》。白皮書論述了人工智能的安全、倫理和隱私問題,認為設定人工智能技術的倫理要求,要依托于社會和公眾對人工智能倫理的深入思考和廣泛共識,并遵循一些共識原則。
人工智能技術的開發和應用深刻地改變著人類的生活,不可避免地會沖擊現有的倫理與社會秩序,引發一系列問題。這些問題可能表現為直觀的短期風險,如算法漏洞存在安全隱患、算法偏見導致歧視性政策的制定等,也可能相對間接和長期,如對產權、競爭、就業甚至社會結構的影響。盡管短期風險更具體可感,但長期風險所帶來的社會影響更為廣泛而深遠,同樣應予重視。
人工智能技術的日新月異與治理體系相對穩定性之間不可避免地存在矛盾,這需要我們明確應對人工智能的基本原則。在國際范圍內比較,人工智能倫理基本原則以2017年1月在阿西洛馬召開的“有益的人工智能”(Beneficial AI)會議提出的“阿西洛馬人工智能原則”(Asilomar AI Principles),以及電氣和電子工程師協會(IEEE)組織開展的人工智能倫理標準的工作受到了最多的關注。此前,各國也提出了機器人原則與倫理標準。作者認為,我國人工智能的研究和應用應遵循兩個人工智能倫理基本原則,即人的根本利益原則和責任原則。
人的根本利益原則
人的根本利益原則,即人工智能應以實現人的根本利益為終極目標。這一原則體現對人權的尊重、對人類和自然環境利益最大化以及降低技術風險和對社會的負面影響。人的根本利益原則要求:
(1)在對社會的影響方面,人工智能的研發與應用以促進人類向善為目的(AIforgood),這也包括和平利用人工智能及相關技術,避免致命性人工智能武器的軍備競賽。
(2)在人工智能算法方面,人工智能的研發與應用應符合人的尊嚴,保障人的基本權利與自由;確保算法決策的透明性,確保算法設定避免歧視;推動人工智能的效益在世界范圍內公平分配,縮小數字鴻溝。
(3)在數據使用方面,人工智能的研發與應用要關注隱私保護,加強個人數據的控制,防止數據濫用。
責任原則
責任原則,即在人工智能相關的技術開發和應用兩方面都建立明確的責任體系,以便在人工智能應用結果導致人類倫理或法律的沖突問題時,人們能夠從技術層面對人工智能技術開發人員或設計部門問責,并在人工智能應用層面建立合理的責任體系。在責任原則下,在人工智能技術開發方面應遵循透明度原則;在人工智能技術應用方面則應當遵循權責一致原則。
透明度原則
透明度原則要求人工智能的設計中,保證人類了解自主決策系統的工作原理,從而預測其輸出結果,即人類應當知道人工智能如何以及為何做出特定決定。透明度原則的實現有賴于人工智能算法的可解釋性(explicability)、可驗證性(verifiability)和可預測性(predictability)。
權責一致原則
權責一致原則,是指在人工智能的設計和應用中應當保證問責的實現,這包括:在人工智能的設計和使用中留存相關的算法、數據和決策的準確記錄,以便在產生損害結果時能夠進行審查并查明責任歸屬。權責一致原則的實現需要建立人工智能算法的公共審查制度。公共審查能提高相關政府、科研和商業機構采納的人工智能算法被糾錯的可能性。合理的公共審查能夠保證一方面必要的商業數據應被合理記錄、相應算法應受到監督、商業應用應受到合理審查,另一方面商業主體仍可利用合理的知識產權或者商業秘密來保護本企業的利益。
應當明確,我們所說的人工智能倫理原則,不僅應當由人工智能系統的研發和應用 的人類主體遵守(包括在研究機構、行業領域的科技企業和科技工作者),而且這些原則應當嵌入人工智能系統本身。機器如何遵循倫理規則這一點,有人仍有質疑。典型的看法是,倫理規則只是給人的,沒有可能給人工智能系統(包括機器人)設定倫理規則。的確,傳統上倫理原則所針對的是能夠遵循這些原則的主體(Agent)也就是人本身。但是,考慮到人工智能的特征在于機器對人的智能的“模擬、延伸和擴展”,即其決策 不需要操控者一步步的指令,同時這種決策可能會產生人類預料不到的結果,人工智能系統也應當受到倫理規則的規制。
結論
社會必須信任人工智能技術能夠給人帶來的利益大于傷害,才有可能支持繼續發展人工智能。而這種信任,需要我們認識和探討人工智能領域的倫理和治理問題,并且在發展人工智能技術發展的早期就有意識地加以運用。今天學者、科技工作者和社會已經有基本共識,就是負責人工智能系統的研發和應用的人類主體,包括在研究機構、行業領域的科技企業和科技工作者,應當服從一些基本的倫理原則。本文提出的兩個基本倫理原則,是國內在這方面思考的總結和升華。除了人工智能的基本倫理原則,前人給我們的另一個啟發是人工智能倫理應該嵌入系統本身。當我們越來越依賴于機器人代替我們作出決策時,我們應當在這個決策過程中嵌入倫理思考,而不是等待決策結果已經給我們帶來負面影響之后再去糾正。
本文希望用一種更清醒的眼光去看待人工智能倫理和治理問題。學者和公眾需要一起探討:我們有沒有可能防止人工智能給個人和社會帶來的損害?只有在這個問題得到更深入的思考和妥善解決的時候,人工智能的發展才有真正的基礎。
轉自丨法理雜志
評論
查看更多