面對人工智能迅速發展以及其正在或可能引發的經濟社會問題,我們必須積極探索并致力于形成務實管用、行之有效的人工智能治理體系。
以人工智能為代表的新一代信息技術正在深刻改變著世界,改變著人類生活。新技術亟待新治理。習近平總書記在致首屆世界人工智能大會的賀信中要求,堅持推動發展和優化治理緊密結合起來,進一步健全治理體系,鋪設法治軌道,為人工智能發展注入更多安全因素。近日,剛剛落幕的“2020世界人工智能大會”圍繞“人工智能的權利義務與法治實踐”進行了深入研討,進一步引發了人們對人工智能治理的思考。應當說,一種新技術的出現,都會引發有關舊的治理規則是否適用,以及是否需要制定新的治理規則的討論。互聯網治理經歷了這個階段,人工智能治理也面臨同樣的境況。面對人工智能迅速發展以及其正在或可能引發的經濟社會問題,我們必須積極探索并致力于形成務實管用、行之有效的人工智能治理體系。
當前人工智能治理面臨多種困境
第一,治理松緊度難以把握。人工智能作為新一輪信息技術革命的重心和高科技的風口,正在深刻地影響著人類社會的前進軌跡。一方面,推動人工智能更好地發展,就要進一步簡政放權、放管結合、優化服務,創造更加寬松的發展環境、更加公平高效的監管、更加簡捷便利的服務,為人工智能蓬勃發展清障助力。另一方面,人工智能也存在著巨大的風險隱患,隱私數據被無節制使用、網絡安全漏洞層出不窮、技術壟斷越來越突出、現存倫理秩序受到沖擊和挑戰等,這些都是懸在人工智能之上的達摩克利斯之劍,隨時可能爆發“爆炸式”風險或“踩踏式”風險。人工智能治理隨之也陷入松和緊的兩難選擇困境。
第二,對智能技術本身的治理責任難以認定。
牛津大學教授弗洛里迪和桑德斯依據行動者之互動關系標準,確立交互性、自主性和適應性三個標準以判定智能技術是否具備倫理責任主體地位。這一研究認為,一個與其環境持續產生交互的系統,如果在沒有響應外部刺激的情況下也能行動,也有在不同的環境中行動的能力,這個系統就可以被視作行動者。倫理學界對人工智能技術的道德主體地位存在較大爭議。一種觀點認為,雖然智能技術可以通過算法影響行為體的行動路徑,但因其尚未完全達到自主性和適應性,將其判定為獨立的倫理行動者依據不足。另一種觀點認為,智能技術已不僅僅是技術性輔助工具或起媒介作用的技術中介,在一定程度上,智能技術已經主動介入或干預社會事務治理。后一種觀點認為,人類智能由于其在限定的時間里的計算速度有限,很難在窮舉中得出最優解,而往往通過經驗、直覺等方法得出自認為滿意的答案。而人工智能通過合并算法和深度學習可以在極短的時間內精確計算所有的可能性,從而使得它們能夠選擇人類完全沒有考慮過而“出人意料”的解決問題方法,作出的結論可能同人類認知系統作出的決策有很大差異。人工智能還可能影響人類的價值判斷,比如,在新聞傳播領域,雖然互聯網企業不直接涉足新聞內容制作,但其推薦的算法實際在對新聞價值從不同維度予以賦值,直接影響著大眾的新聞閱讀導向。
第三,治理時機的選擇困境。著名的“科林格里奇困境”指出了技術評估的兩難困境:在技術發展的早期控制其應用方向相對容易,但此時決策者缺少合理控制的專業知識,也缺少對發展趨勢的準確判斷,當技術應用的風險顯露時,對它的控制已幾乎不可能。人工智能是基于互聯網、大數據、云計算等新一代信息技術而發展起來的技術科學,新技術的發展具有很大的不確定性,基于新技術的人工智能發展同樣具有不確定性。當前,人工智能發展進入“無人區”,包括技術持續探索的無人區,在應用中摸索的無人區,以及配套政策、法規、倫理的無人區,無人區前路茫茫,既有重大發展機遇,也面臨突發性風險挑戰,對治理者來說最大的難點在于治理對象和風險的不確定性,難以精準施策、有效治理。
積極破解人工智能治理難題
在治理原則上,堅持促進創新和底線治理相結合。一方面,人工智能是創新性科學技術,具有顛覆性和不可預見性等特征,其發展和應用可能給經濟社會帶來顛覆性變化。但這種改變遵從量變到質變的演進邏輯,只有當技術發展到一定程度,與產業融合達到一定深度,并經過大量試錯、校正和調整后,才可能帶來實質性的改變。因此,人工智能治理必須秉持促進創新、促進發展的原則,只有在“必要”的時候才對其進行規制,而且政府規制要遵循適時、適度的原則,盡量采用對技術發展干預最小的規制方式。另一方面,在放松規制的同時也要加強底線管理,確保對人工智能風險的有效防范,尤其是要加強對諸如數據安全、技術壟斷、算法偏見、倫理道德等重點領域的規制。
在治理模式上,明確人工智能本身治理責任和構建多元協同治理機制相結合。人工智能可以通過技術手段抓取個體或組織的信息,再通過算法對相關信息進行分析和計算,進而得出有關個體或組織的“畫像”;反之,人工智能還能夠根據所掌握的“畫像”信息,采取有針對性的措施來影響和干預相關主體。如此一來,人工智能在某種意義上就成為“另類”的治理主體。就目前的技術發展狀況而言,更為重要的是確立人工智能商業機構的倫理地位,賦予其相應的治理權限,推動人工智能商業機構加強企業自治。在此基礎上,推動人工智能從傳統的政府主導的權威自上而下的單向管理走向政府主導、企業自治、社會廣泛參與的協同治理模式,在確保發揮政府公共性、主導性作用的同時,又充分利用企業的效率高、專業性強的特點,還能兼顧社會主體回應快、訴求準等特征,綜合多個主體、多種手段的優勢,形成多元主體協同共治的人工智能治理新范式。要特別注重轉變政府職能定位,人工智能發展的開放性使得監管機構難以準確定位監管對象,信息不對稱問題的加劇還可能導致監管行為走向反面。因此,要積極調整治理結構與治理邏輯,推動政府從“劃槳人”向“掌舵人”轉變,促其將工作重心放到積極營造人工智能良好發展環境上。應積極參與人工智能全球治理,以多種形式促進人工智能重大國際共性問題的解決,共同應對人工智能發展中的全球性挑戰。
在治理手段上,積極推行法律法規和公共政策前置治理相結合。為了走出“科林格里奇困境”,一些國家在人工智能倫理治理和立法實踐方面行動迅速,采取相對前置的治理模式,積極推動人工智能立法工作。比如,美國提出《人工智能未來法案》,重點就人工智能對經濟發展、勞動就業、隱私保護等方面的影響進行法律規制。中國也加快了與人工智能密切相關的立法項目,如數字安全法、個人信息保護法和修改科學技術進步法等,已列入立法規劃。但從法律經濟學角度看,法律和公共政策在一定程度上具有可替代性,都能起到規范社會秩序的作用。在某一階段,對某一具體問題,究竟是用法律,還是用公共政策,主要取決于問題本身的明確性和變化性。法律具有相對的剛性和滯后性,這也決定了它在應對人工智能這類明確性較差、變化性較大的問題時往往會遇到一定的困難。相比之下,公共政策更為靈活,能夠對變化的問題相機作出反應,這使它在很多時候比法律更有效。比如,面對人工智能可能帶來的算法歧視問題,我們可以提前做好標準規范的制定、對從業人員職業倫理和專業技能的培訓,以及相關評價機制的建立,通過制定相對前置的公共政策以確保人工智能的技術中立性。由于這些政策相對靈活,可以根據現實情況及時調整,因此在多變的環境下可能比立法更管用。
-
算法
+關注
關注
23文章
4601瀏覽量
92673 -
人工智能
+關注
關注
1791文章
46896瀏覽量
237670 -
智能技術
+關注
關注
0文章
296瀏覽量
12818
發布評論請先 登錄
相關推薦
評論