人工智能正引發最重要的技術變革和社會變革,它在深刻改變人類物質生產體系的同時,也將對人類行為和社會關系產生深遠的影響。
2018年以來,人工智能安全事故、倫理道德侵害事件頻發,社會各界普遍關注,特別是全球首例自動駕駛致死事件更是引發了公眾對人工智能發展的議論。
實際上,近年來伴隨人工智能向各行業、各領域的快速滲透,聯合國、電氣和電子工程師協會(IEEE)等國際組織已密集推出人工智能發展原則,以期為世界各國的人工智能監管提供參考借鑒,歐盟、日本、新加坡等國家和地區已明確提出人工智能道德倫理準則,人工智能從業者也在積極探索行業自律相關經驗。然而總體來看,準則易定,實施難行,要克服道德準則主觀性,要探索全球人工智能治理準則,并達成多方共識,仍然有較長一段路要走。
1、人工智能安全事故多發 社會關注度日益提升
自動駕駛車輛撞死路人,應該由誰來擔責?
2018年3月,優步自動駕駛汽車在美國亞利桑那州坦佩市碰撞到一個橫穿馬路的行人,該行人在送往醫院后不治身亡,這是全球首起自動駕駛車輛在公共道路上撞擊行人致死事件。意外發生時,汽車處于自動駕駛模式,駕駛座上有1名人類安全駕駛員,該駕駛員并未參與駕駛操作。那么,該由誰對這起事故承擔法律責任?人類駕駛員、汽車制造商沃爾沃公司還是自動駕駛系統提供方優步公司?
一年后的2019年3月5日,美國亞利桑那州檢察官裁定優步公司不承擔刑事責任,同時建議警方對優步的安全駕駛員進行進一步調查。理由是,這一自動駕駛車輛處在自動駕駛模式時,其剎車的責任應由安全駕駛員負責。即優步公司的程序已設定,在自動駕駛模式下,即使遇到緊急情況,系統也不能啟用緊急剎車功能,而是由人類駕駛員啟動。優步公司制定的這一算法規則成為該公司被裁定不承擔刑事責任的重要依據,那么優步這一規則的合理性又該由誰來判定?法律問題的背后實際是倫理準繩的設定。
侵犯個人隱私,涉嫌種族歧視,這樣的人工智能產品和服務你能接受嗎?
日前,美國科技巨頭亞馬遜公司向執法機構、私人企業銷售人臉識別軟件Rekognition,美國媒體和公眾認為,這將對個人隱私造成嚴重威脅。因為,這款軟件可以讓政府和私企在任何有攝像頭的地方追蹤到普通民眾,同時相關技術還因為有色人種被錯誤識別匹配的比例過高而受到種族歧視的質疑。
2018年7月,美國公民自由聯盟(ACLU)的一項測試顯示,Rekognition曾將535名美國國會議員中的28人誤判為罪犯。對于有色人種國會議員識別的錯誤率為39%,遠超對整個國會議員識別的錯誤率。2019年1月,麻省理工學院的一項研究顯示,IBM和微軟公司研發的人臉識別與分析軟件也都存在種族和性別偏見問題。
人工智能用于研發戰爭機器人會加劇軍備競賽嗎?
早在21世紀初,美國已將無人系統用于軍事活動。特別是近期,美國部署啟動了諸多人工智能軍事項目,包括各類軍用無人車、無人機、無人船等。谷歌、微軟等公司都參與了軍用人工智能技術與系統的研發。
2018年4月,3100多名谷歌員工聯名請愿,敦促公司終止與美國國防部合作開發的Project Maven人工智能武器項目。
2018年2月,韓國科學技術院KAIST與韓國軍工企業Hanwha Systems合作共建“國防和人工智能融合研究中心”,該中心目標是“開發應用于軍事武器的人工智能技術,參與全球自主武器研發競爭”,而Hanwha Systems的母公司韓華集團因為制造集束彈藥已被聯合國列入黑名單。2018年4月,全球20多個國家的50多名頂尖學者在公開信中聯名抵制韓國科學技術院的這一行為,“韓國科學技術院研發自主武器將會加速人工智能軍備競賽,這樣的技術可能導致更大規模戰爭加速到來,如果自主武器研制成功,戰爭速度之快、規模之大將是前所未有的,也有可能成為恐怖分子的武器”。
2、國際社會密集推出人工智能的應用研發準則
以聯合國為代表的國際組織,以及匯聚了眾多人工智能學術界和產業界人士的阿西洛馬會議等,都在積極探索相關原則與解決路徑,以期為世界各國的人工智能監管提供參考借鑒。
聯合國高度關注人工智能與自動化系統等應用的安全、倫理和道德問題,呼吁共同應對人工智能發展所帶來的全球性挑戰。
聯合國主要聚焦自動化武器運用,早在2014年便開始籌備起草《特定常規武器公約》,以限制人工智能殺手武器的研制,到2016年有包括中國在內的123個國家的代表同意締結該公約。近兩年,隨著新一輪人工智能熱潮的到來,聯合國高度重視人工智能、機器人、自動化等在民用領域的廣泛應用。2016年8月,聯合國教科文組織與世界科學知識與技術倫理委員會聯合發布了《機器人倫理初步報告草案》,專門提出了機器人制造和應用的倫理道德問題和責任分擔機制,并強調了可追溯性的重要性,即機器人的行為及決策過程應全程處于監管之下。
2017年6月,聯合國國際電信聯盟在日內瓦舉行了主題為“人工智能造福人類”的全球峰會,圍繞人工智能的最新發展,人工智能對道德、安全、隱私以及監管等帶來的挑戰展開討論,同時呼吁各國共同探討如何加快推進人工智能大眾化進程,并借以應對貧困、饑餓、健康、教育、平等和環境保護等全球性挑戰。
2018年4月,聯合國“致命性自主武器系統問題政府專家組”在日內瓦召開會議,80余國的官員及專家共同討論人工智能的武器化問題。
阿西洛馬人工智能原則探討如何確保人工智能為人類利益服務。這一原則源自2017年1月,未來生命研究所在美國加州的阿西洛馬市召開的題為“有益的人工智能”的人工智能會議。來自世界各地,覆蓋法律、倫理、哲學、經濟、機器人、人工智能等眾多學科和領域的專家,共同達成了23條人工智能原則,呼吁全世界在發展人工智能的時候嚴格遵守這些原則,共同保障人類未來的利益和安全。這23條原則分為三大類,包括科研問題、倫理和價值問題以及更長遠的問題。包括霍金、埃隆·馬斯克、德米斯·哈薩比斯等在內的近4000名各界人士表示對此支持。
電氣和電子工程師協會嘗試構建人工智能設計的倫理準則。為切實推動與人工智能倫理相關的標準制定,電氣和電子工程師協會分別于2016年12月和2017年12月發布兩個版本的《人工智能倫理設計準則》,并始終強調自主與智能系統不只是實現功能性目標和解決技術問題,還應該造福人類。電氣和電子工程師協會早在2016年4月便發起“自主與智能系統倫理的全球性倡議”,數百名專家參與到人工智能倫理設計準則的研究與討論中。他們來自學術界、產業界、政府部門以及非政府組織,具有計算機、數學、哲學、倫理學、社會學等多學科背景。
第二版準則涵蓋一般原則、價值嵌入、指導合乎倫理的研究與設計方法、通用人工智能和超級人工智能的安全、個人數據與訪問控制、自主武器、經濟和人道主義問題、法律、情感計算、政策法規、經典倫理問題、混合現實、人類福祉指標等13個方面內容,同時針對一些倫理事項提出了具體建議。
該準則已成為全球范圍內系統、全面闡述人工智能倫理問題的重要文件,并在持續發展和完善中,預計最終版將于2019年發布。人工智能倫理準則可以給電氣和電子工程師協會正在推動的與人工智能倫理相關的標準制定提供參考,標準的制定則有望將人工智能倫理從抽象原則落實到具體的技術研發和系統設計中。
3、一些國家提出人工智能發展與治理的原則和框架
2018年以來,全球包括中國、美國、英國、日本、歐盟、印度、澳大利亞、加拿大、法國、德國、新加坡以及阿聯酋等10余個國家和地區在部署實施人工智能發展戰略時,已明確將人工智能治理問題納入其總體戰略,提出確保本國人工智能健康發展的基本原則。其中明確提出人工智能道德倫理準則的包括2018年6月新加坡發布的《AI治理和道德的三個新倡議》;12月歐盟發布的《可信賴的人工智能道德準則草案》,日本內閣發布的《以人類為中心的人工智能社會原則》等。德國計劃在2019年提出人工智能倫理原則。
綜合來看,這些國家和地區對人工智能治理進行部署推進的共同點主要包括四個方面。
一是堅持以人為中心的人工智能治理理念。歐盟提出要堅持“以人為中心”的發展原則,推動發展符合歐洲倫理與社會價值觀和民眾愿望的人工智能,確保人工智能技術能夠給個人和社會整體帶來福利。日本提出人類中心原則,人工智能的使用不得侵害憲法和國際規范保障的基本人權。美國將“提升公眾對人工智能技術應用的信任度,保護公民自由、隱私和價值觀,切實為國民帶來福祉”作為人工智能發展的五大基本原則之一。阿聯酋提出人工智能要負責任地發展,避免對人類造成巨大威脅。德國提出應負責任地、以公共利益為導向發展和應用人工智能,并積極為以數據為基礎的商業模式和價值創造路徑給出歐洲方案,使之符合歐洲的經濟、價值和社會結構。
二是設立專門委員會或專家組開展人工智能倫理道德規范研究,以為政府提供決策咨詢。歐盟組建了人工智能高級專家小組負責人工智能道德準則的制定工作,小組52名專家來自谷歌、IBM、貝爾實驗室、SAP、博世等全球領軍企業與研發機構和牛津大學、伯明翰大學等知名學府以及若干社會組織。新加坡成立人工智能和數據道德使用咨詢委員會,以協助政府制定人工智能道德標準和治理框架。英國上議院人工智能特別委員會專門研究人工智能對經濟、社會和道德倫理等的影響。德國數據倫理委員會負責人工智能技術發展與應用中的倫理和法律問題研究。印度成立人工智能特別委員會,研究人工智能應用可能產生的問題,并計劃在具體行使人工智能技術研究和成果轉化職能的兩大類機構中設立道德委員聯合會,以制定有關隱私、安全和道德的行業特定準則等。
三是積極參與人工智能全球治理。阿聯酋人工智能部早在2018年2月便召開了一次關于人工智能全球治理的頂級閉門會議,討論人工智能對人類社會帶來的挑戰,并試圖尋找解決方案,當年11月,阿聯酋人工智能部長表示將盡快舉辦全球人工智能治理論壇,以期在人工智能治理方面與全球達成共識。英國也希望能夠與他國共同塑造人工智能研發和使用的倫理框架,并醞釀在2019年舉辦全球峰會,與各國、行業、學術界和民間團隊一道在平等的基礎上,商討制定人工智能研發和應用的全球通用倫理框架。
四是加快調整部分領域監管規則,尋求相關行業健康發展。在自動駕駛領域,美國交通部于2017年9月更新了聯邦自動駕駛汽車政策《自動駕駛系統:安全愿景2.0》,確定了12項安全性能自評標準,以為自動駕駛行業提供非監管性指導,企業可以據此提交安全評估報告。美國、德國、英國、新加坡和韓國等都引入了公共道路的自動駕駛汽車法規并頒發自主測試許可證。德國自動駕駛汽車道德委員會是德國聯邦政府為制定自動駕駛汽車相關法律法規設置的專門機構。在智能醫療領域,2017年7月,美國食品藥品監督管理局(FDA)建立了一種針對低風險醫療人工智能產品的全新監管方式——“數字醫療軟件預認證計劃”,隨后FDA選擇了9家企業開始實施試點項目,試點項目結束后,FDA旗下專門負責醫療設備及科技監管的機構器械和輻射健康中心根據在上述試點項目中確定的客觀標準來“預先認證”具備資格的數字醫療開發主體。經過預認證的開發主體可以直接銷售自己的低風險醫療人工智能產品,而無須經過FDA的額外審查和一系列入市審查。
4、產業界探索行業自律經驗
人工智能產業界、行業協會等也將人工智能治理作為重要議題開展相關研究,成為行業自律的重要經驗探索。微軟、谷歌、IBM、百度、騰訊、索尼、西班牙電信、德國SAP等公司都已明確提出公司人工智能研發與應用的核心原則,美國信息技術產業委員會則頒布了人工智能的14條政策準則,對人工智能系統的設計、部署與應用等的安全性提出要求,并探討了企業、政府、研究機構應采取什么樣的運作及合作方式,以確保人工智能發揮最大的積極效益。
微軟公司總裁布拉德·史密斯表示,要設計出可信賴的人工智能,必須采取體現道德原則的解決方案,因此微軟提出6個道德基本準則,即公平、包容、透明、負責、可靠與安全、隱私與保密。在經歷了員工聯合請愿事件后,谷歌公司CEO桑德·皮查發表署名文章《谷歌AI的原則》,詳述了人工智能七大原則,即造福社會、避免偏見、確保安全、對人負責、保護隱私、遵守嚴格的科學標準、避免有潛在危害或可能被濫用的技術與應用,同時還明確了未來將嚴格堅守的四大底線等。DeepMind公司于2017年10月成立了“人工智能倫理與社會部門”,旨在理解人工智能的現實影響并幫助技術人員將倫理付諸實踐,該部門于2018年啟動關于算法偏見、問責制和自主殺人機器等課題項目的研究,希望可以幫助社會預測人工智能的影響,并根據預測結果給予正確的引導,確保人工智能給人類社會帶來正面作用。德國商業軟件巨頭SAP于2018年9月發布了一份道德規范來管理其人工智能研究,并提出七條準則,旨在防止人工智能技術侵犯人們的權利,參與制定這一規范的包括工程師、神學家、政治家和生物倫理學家等。
總體來看,全球主要國家對人工智能治理仍然僅僅停留在原則和框架層面,具體到人工智能技術開發規則,比如如何使之嚴格遵守“人工智能系統不傷害人類”“人工智能決策應具備可解釋性”等規則,各國都尚未提出明確的解決方案。理應涵蓋技術開發、行業監管和公共治理等在內的成體系化的法律和規范建設尚顯遙遠。同時在產業領域,各國、各企業由于文化傳統和價值觀不同,彼此在人工智能部署原則上也有差異,比如美國、歐盟和中國對自動駕駛實施監管和規范的態度彼此就存在一定的差異。當前,全球人工智能應用的快速普及以及跨國界、跨區域要素的加速流動和產業互動,正為各方提出前所未有的挑戰,國際社會理應盡快形成人工智能全球治理通用或一致性框架,確保人工智能為人類所用,并促進全人類平等受益。
評論
查看更多