近期,美國和歐盟先后發布AI監管政策,預示著人工智能將迎來監管時代。但美歐監管路徑大相庭徑,歐盟意在加強監管以強化個人權利保護,美國極力限制監管范圍以促進創新與發展。尤其,歐盟人工智能監管框架延續了GDPR的長臂管轄理念,將來可能波及中國科技公司。
一、歐盟:新的數字戰略之下,加速建立人工智能監管框架
2月19日,歐盟委員會發布了新的數字戰略,這是繼2015年5月啟動單一數字市場戰略之后,歐盟面向數字化轉型的又一綱領性戰略。與之一道發布的還有“人工智能白皮書”和“數據戰略”,這兩份戰略文件是落實新的數字戰略的第一批舉措。后續歐盟將圍繞以人為本的技術,公平、有競爭力的經濟,開放、民主、可持續的社會這三大戰略目標,出臺一系列落地措施。整體而言,歐盟出臺數字戰略,不僅意在增強歐盟的技術主權、產業領導力和經濟競爭力,而且期望通過立法和監管重塑數字發展模式,將給全球數字發展帶來持續性影響。
而人工智能白皮書的出臺,意味著歐盟的人工智能政策將從倫理轉向監管,相關技術應用和產業發展將逐步受到影響。白皮書在2018年4月出臺的歐盟人工智能戰略的基礎上,提出了投資和監管并舉的思路,一方面將持續加強對芯片、算法、量子計算等技術和產業的投資;另一方面將通過建立監管框架來防范自動化決策不透明、算法歧視、隱私侵犯、犯罪行為等AI應用相關風險。旨在加強技術主權,確保技術信任。可見,歐盟希望通過監管框架和技術/產業優勢、數字基礎設施的結合,來確保歐盟在數字經濟和人工智能領域成為全球創新的領導者。
白皮書提出針對人工智能建立新的監管框架。新的監管框架基于風險路徑,目的在于使各種風險和潛在損害最小化,同時避免過度監管。核心規定包括以下五個方面。
第一,采取分類監管方式,并非所有的AI應用都會受到監管,監管只針對“高風險”AI應用;但判斷標準模糊,存在監管泛化的可能性。“高風險”的判斷,有兩個累加的標準:(1)在特定領域使用AI應用很有可能發生重大風險;(2)在前述的特定領域使用AI應用,考慮使用的方式,有可能出現重大風險。具體可能涵蓋哪些領域和使用場景,有待將來出臺監管名單,來窮盡列舉,并可定期評估、修訂,白皮書列舉了醫療、交通、能源等領域。此外還有一個兜底規定,這會進一步擴大監管的范圍,即不論是否在監管名單中,考慮風險的程度,只要為特定目的使用AI系統被認為具有高風險,就應當受到監管,例如在招聘中使用AI,將AI應用于遠程生物識別和其他監控技術,這意味著AI人臉識別也是“高風險”應用。可見,判斷標準高度概括,非常模糊,存在很大解釋空間,賦予監管較大的自由度,不排除將來出現監管泛化。
第二,高風險系統需要遵守嚴格的強制性要求。新的監管框架提出了一系列一般性法律要求,適用于所有的高風險AI應用。這些要求涵蓋訓練數據,數據記錄,信息提供與透明度,安全可靠與準確無誤,人類監督和干預等五個方面:
(1)訓練數據:確保AI應用安全,訓練數據覆蓋所有相關場景;采取合理措施確保AI系統不會導致不合法歧視,使用的數據集具有足夠的代表性;確保AI應用保護隱私和個人數據。
(2)數據記錄:準確記錄訓練、測試AI系統所使用的的數據集;必要時保存數據集本身;記錄編程細節和創造、測試、驗證AI系統的方法、程序和技術。
(3)信息提供與透明度:提供關于AI系統的能力、限制的清晰信息,特別是涉及系統目的、正常運行條件、在實現特定目的上的準確程度的信息;當公民在與AI系統交互時,應明確告知。
(4)安全可靠與準確無誤:確保AI系統在整個生命周期內是安全可靠的,準確無誤的;確保結果是可復制的;確保AI系統在整個生命周期內可以應對失誤和不穩定情況;確保AI系統能夠抵御攻擊和針對數據、算法的操縱行為,并采取應對措施。
(5)人類監督和干預:人類干預存在方式和程度上的差異,例如,除非已由人類審查并確認,否則AI系統的輸出不能成為有效的(如社會福利的申請只能由人類做出決定);AI系統的輸出即時有效,但之后可以訴諸人類干預(如信用卡申請可由AI系統處理,但之后可以向人類提出申訴);在運行過程中監督AI系統,以及能夠實時地干預和關閉系統(如自動駕駛汽車具有關閉按鈕);在設計階段,給AI系統施加運行限制條件(如自動駕駛汽車在超出預設的運行條件時停止運行)。
這些強制性要求可以說是細致入微,但能否適應技術和應用快速發展迭代的特點,卻是一個大大的問號。此外,相比之前泄露出來的文件考慮在3-5年內禁止在公共場所使用人臉識別技術,白皮書透露出歐盟對人臉識別技術的態度已經大為緩和,并未禁止人臉識別的使用,但將限定使用情形并建立安全措施。即必須確保特定使用情形是合法正當的,符合比例原則的,并采取充分的安全措施。而對于在公共場所使用人臉識別技術,歐盟委員會后續將討論確定正當的使用場景以及共同的安全措施。
第三,延續長臂管轄思路,可能影響中國科技公司。在管轄方面,新的監管框架延續了《一般數據保護條例》(GDPR)建立的長臂管轄規則,即在歐盟境內提供AI相關產品或服務的所有相關主體都需要受到監管,遵守前述強制性要求,無論其是否在歐盟境內設有營業場所。這意味著歐盟以外的科技公司可能受到監管,中國科技公司也不例外。在義務主體方面,一般而言,處在應對潛在風險的最佳位置的主體,需要遵守前述強制性要求,避免過度擴大義務主體的范圍。
第四,建立涵蓋事前、事中、事后各個環節的全面監管機制。事前,為了確保高風險AI應用遵守強制性要求,由監管部門對其進行合規認證評估,包括測試、監測和認證程序,以及對在研發階段使用的算法和數據集進行檢查。事中和事后,加強執法,包括監測合規與否,監管部門或第三方機構對AI應用進行測試。
第五,不在監管范圍之內的AI應用,不需要遵守這些強制性要求。但針對不受監管的AI應用建立自愿認證機制,即如果不受監管的AI應用自愿遵守這些強制性要求或者特別為自愿機制建立的類似要求,則可以被授予質量標簽,表明該AI系統是可信的。一旦貼上了質量標簽,AI應用就必須遵守強制性要求,否則監管部門可對其采取執法措施。自愿標簽機制將激勵行業主動合規,可能進一步擴大監管范圍。
二、美國:科學審慎監管、不監管、非監管措施多管齊下共促創新與發展
無獨有偶,今年1月,在出臺美國國家AI戰略滿一年之際,美國政府發布了《人工智能應用監管指南》,意在為聯邦政府對AI發展應用采取監管和非監管措施提供指引。《指南》提出了十大監管原則,涵蓋公眾對AI的信任、公眾參與、科研操守和信息質量、風險評估與管理、成本效益分析、靈活性、公平無歧視、披露與透明度、安全可靠、聯邦機構間協調等層面。這些原則既關乎方法論,也涉及目的,代表著美國在AI監管上的總體思路。總體而言,美國對AI發展應用的監管,主要呈現出以下三個特點。
第一,強調監管應有助于創新與發展。美國的AI政策的根本目的在于,增強美國在AI的科學、技術、經濟等方面的全球領導地位。AI監管也需要服務于這一根本目的。就AI監管的目的而言,與維護技術、經濟和國家安全,隱私,自由,法治,知識產權等美國價值同等重要的是,促進穩健的創新生態系統,減少、移除AI技術發展和應用面臨的不必要障礙,持續促進技術和創新的進步。所以《指南》要求充分評估監管對AI創新和發展的影響,避免采取阻礙AI創新和發展的監管、非監管措施,避免采取可能給AI系統施加過高標準的預防性路徑,因為這可能影響社會從AI應用中受益。
第二,強調監管的科學性、靈活性。AI的監管、非監管措施需要充分考慮AI相關的科學、技術信息和程序,避免不切實際的拍腦袋立法。監管需要采取風險路徑來評估哪些風險可被接受,哪些風險可能導致不被接受的損害,或者帶來的損害超出了帶來的益處。這意味著AI監管不是要,也不可能消除所有的風險,而是對風險進行管理,將風險控制在最小的或者社會可接受的限度。所以需要采取成本效益分析,在對AI進行監管之前,充分考慮AI發展應用的社會成本、益處、影響等,以權衡AI活動的利弊并衡量風險大校此外,監管、非監管措施要具有足夠的靈活性和彈性,適應技術快速變化和AI應用迭代,僵硬的、規制技術細節的立法是不切實際的,無效的。
第三,強調不監管。可以說,對于AI應用,美國是以不監管為出發點的。如果既有的監管是充分的,或者新的監管不符合成本效益分析,此時理想的路徑就是不進行監管,或者采取非監管的措施來應對特定AI應用的風險。不監管和非監管措施,和政府監管同等重要。可以預見,美國將更側重不具有法律強制性的非監管措施,包括細分領域的政策指南或框架,試點項目和實驗,行業內自愿的共識標準等。這些非監管措施主要包括:
(1)細分領域的政策指南或框架:出臺非監管的政策聲明、指南,或者測試和部署框架,來鼓勵特定領域的AI創新。
(2)試點項目和實驗:出臺監管例外、豁免,或者試點項目,為特定的AI應用提供“安全港”(safe harbor)。
(3)自愿的共識標準:行業可以就AI應用形成自愿的共識標準,標準組織可以推動標準的制定,在出臺監管或合規要求之前依賴行業內的標準認證項目。
三、美歐人工智能監管政策對比
2020年絕對是全球人工智能政策的轉折點,美國和歐盟先后出臺監管政策,表明人工智能將正式迎來監管時代。監管政策將成為美國和歐盟各自加強“科技主權”的重要工具。人工智能白皮書的出臺,表明歐盟的人工智能監管立場已經有所緩和,但是與美國相比,存在根本性差異。去年全球AI初創公司總共融資270億美元,其中美國占了170億美元,遠超其他國家,美國活躍的創新生態在某種程度上表征著美歐監管差異。
第一,監管目的和初衷存在顯著差異。歐盟人工智能監管框架延續了GDPR的立法初衷,過分強調個人權利保護和AI應用的負面影響,包括個人數據和隱私保護、非歧視等基本權利,安全和責任等。相反,美國更全面地看待AI的影響,不僅側重維護美國核心價值,而且更加強調對AI創新與發展的促進,所以把為AI應用創設“安全港”、監管例外、監管豁免等提到了很高的地位。“安全港”制度絕對是美國在互聯網時代一騎絕塵的制勝法寶,美國希望在AI領域復制這一成功經驗。
第二,歐盟低門檻監管,美國高門檻監管。高度模糊的標準意味著,歐盟為AI應用進入監管領域設置了較低的門檻。監管要求具體入微,監管和執法覆蓋全過程,AI發展應用將面臨更大范圍和更大程度的監管壓力,技術和產業影響不容小覷。相反,美國所倡導的科學審慎監管、風險評估與管理、成本效益分析、靈活敏捷等理念,不僅會很大程度壓縮監管的空間,而且不至使監管要求僵化,對技術和產業發展更加友好。
第三,歐盟粗放式監管,美國精細化治理。粗放式不僅指標準抽象,而且意味著路徑單一,過度強調監管的迫切性、必要性和重要性。相反,美國壓縮監管空間,不意味著毫不作為,而是給技術和行業友好型的非監管措施留出更大空間。
四、對我們的啟示
第一,持續加強基礎研發投入和人才培養。在推進監管的同時,美歐繼續加強科技研發投入,例如,美國在未來兩年將使投資于人工智能和量子計算的研發投入翻倍并打造量子互聯網,歐盟也將顯著地加強對AI、量子計算的研發投入。我國在基礎研究、芯片、核心算法、人才培養等方面尚存短板,需要持續加大對人工智能、量子計算等突破性技術的投入和支持力度。
第二,全球“技術主權”競爭背景下,需要包容審慎監管AI應用。數字時代,全球“技術主權”競爭趨于激烈,監管政策是重要的工具,例如美國近年來加大對AI等前沿數字技術的投資和出口管制,就是出于這一目的。因此美歐的AI監管雖然存在差異,差異的存在是因為產業發展狀況不同,但殊途同歸,最終都是為了打造技術和產業競爭力。在這樣的背景下,美國的AI監管政策樣本更契合我國的技術和產業實際,需要遵循包容審慎的理念,通過多方參與、風險評估、成本效益分析等機制,確保立法和監管的科學化、精細化、靈活化,并可考慮設立“安全港”規則或者監管例外來鼓勵AI應用,同時依靠監管之外的多元化措施,如標準、指南、試點等。
第三,加強國際合作,積極推動國際AI標準設定。除了面向國內的政策舉措,美歐也在積極建立國際同盟、聯盟等,希冀主導AI技術、倫理、治理等方面的國際標準,山頭主義的發展趨勢顯著。我國需要加強國際合作,積極輸出理念和價值觀。
評論
查看更多