2023年5月25日,美國微軟公司發布報告《AI治理:未來藍圖》(Governing AI: A Blueprint for the Future),詳細介紹了政府在制定人工智能的政策、法律和法規時應考慮的五項指導方針。
元戰略觀察員精心編譯本報告,為人工智能治理研究提供參考。
各國政府正在尋求或制定治理人工智能的新藍圖。基于眾多緊迫的問題和議題,本報告在此提出一個方案,以幫助人工智能治理取得更快進展。該方案認同人工智能可以改善人們的生活,同時也制定了新的治理措施。基于政府和私營部門的倡議,該方案為人工智能治理提出五項建議:
1.搭建并執行以政府為主導的人工智能安全新框架;
2.控制關鍵基礎設施的人工智能系統必須具備有效的安全防護措施;
3.基于人工智能技術架構,搭建范圍更廣的法律監管框架;
4.提升透明度,確保學界和公眾可利用人工智能技術;
5.加強公私合作,用人工智能解決新技術引發的社會挑戰。
通過該方案,微軟在一定程度上回應了美國白宮最近對人工智能公司的倡議,承諾確保人工智能的安全性和可靠性。
1、搭建并執行以政府
為主導的人工智能安全新框架
微軟以政府工作的最新進展為基礎,通過以下四種方式來提升人工智能的安全性:
第一,微軟回應美國白宮最近的倡議,承諾將實施美國國家標準與技術研究院(NIST)的人工智能風險管理框架。
第二,將通過采取新措施,進一步加強與高風險人工智能系統相關的工程實踐,來完善微軟現有的人工智能測試工作。
第三,政府可以通過行政命令推進治理進程,要求向美國政府提供關鍵人工智能系統的供應商,應當自證其正在實施NIST的人工智能風險管理框架。
第四,與其他行業領導者和政府合作,制定與高度可靠的基礎模型相關的新標準。
我們認識到,人工智能的快速發展帶來了新的安全問題,并且通過合作制定可操作的標準,以幫助評估和解決這些問題。OpenAI、Google、Anthropic和其他人工智能公司的領導者已提出了重要的想法,為未來人工智能安全的進展奠定基礎。
2、控制關鍵基礎設施的人工智能系統
必須具備有效的安全防護措施
展望人工智能的未來,控制新技術潛在風險的基本方法一直以來都是有效的。該方法就是提前識別出新產品何時失控,并部署有效的安全“剎車”機制,以確保人工監督的有效性、及時性。
隨著人工智能變得越來越強大,電網、供水系統和城市交通等關鍵基礎設施交由人工智能控制的程度日益加深。因此,我們需要安全“剎車”機制來確保這些系統處于人類控制之下。
新的安全要求能為控制關鍵基礎設施運行的人工智能系統進行安全“剎車”,從而確保基礎設施人工監督的有效性、彈性和穩健性。政府將定義控制關鍵基礎設施的高風險人工智能系統的類別,并確保運營商定期測試高風險系統,以確保系統安全措施有效。
3、基于人工智能技術架構
搭建范圍更廣的法律監管框架
隨著對人工智能潛在監管問題的深入思考,我們需要建立一個與人工智能技術本身相符的法律和監管框架。簡而言之,法律需要根據不同行為者在管理人工智能技術上的不同角色,賦予他們不同的監管責任。
在搭建人工智能的法律監管框架時,一方面,需要將現有的法律保護措施應用于人工智能。
第一,與客戶合作,推動他們使用最佳方式來合法、負責地部署人工智能。
第二,監管機構需要新的人工智能專業知識和能力。
第三,支持廣泛的教育倡議,為立法者、法官和律師提供人工智能技術和負責任的人工智能信息。
第四,人工智能的快速進步給立法者或執法人員帶來了新壓力,他們需要了解新的人工智能技術及其工作原理。
另一方面,針對高水平能力的人工智能基礎模型制定新的法律法規。
第一,和其他領先的人工智能開發者共享先進人工智能模型的專業知識,以降低監管門檻。
第二,確立開發或部署高水平人工智能模型需要滿足的條件。
第三,通過對人工智能數據中心運營商施加許可要求,確保有效執行高水平人工智能模型的許可制度。
4、提升透明度
確保學界和公眾可利用人工智能技術
未來,有許多人工智能的政策問題有待認真討論,包括安全與透明度之間的關系問題。在某些領域,許多專家認為保密對于安全至關重要,尤其是對于國家安全和公共安全。除此之外,透明度也很重要,甚至有助于更好地理解安全需求和最佳實踐。
微軟于2018年采用了人工智能倫理準則,并將透明度作為六項基本原則之一。在實施這一原則時,我們意識到在不同情況下提供不同類型的透明度非常重要。生成式人工智能的出現使得這一原則比以往更加重要,這也是需要持續進行研究和創新的關鍵領域。為了推動該領域的工作,微軟向美國白宮做出了以下三項承諾:
第一,微軟將發布年度透明度報告,向公眾介紹其在負責任和安全管理人工智能方面的政策、系統、進展和表現。
第二,微軟將支持建立一個開放的、供公眾查閱的國家高風險人工智能系統注冊機構,讓公眾了解這些系統的使用情況和方式。
第三,微軟承諾確保其人工智能系統在與公眾互動時能夠清晰地向其傳達系統的能力和不足。
第四,微軟認同在重要場景中需標記人工智能生成的內容,以便公眾“知曉所接收的內容”。
5、加強公私合作
用人工智能解決新技術引發的社會挑戰
微軟相信,公共和私營部門可以聯合起來利用人工智能來改善世界,其中包括對抗技術變革所帶來的挑戰。微軟對未來保持清醒的認識,并意識到有些人試圖將人工智能作為武器而不是工具,技術變革會不可避免地帶來難以預料的困難和問題。
近年來,人們越來越關注解決民主社會所面臨的新風險,這些風險源于人工智能的潛在武器化。我們對未來技術的擔憂是合理的,需要共同努力來對抗這種威脅。
在這一進程中,內容溯源和真實性聯盟(C2PA)至關重要。該聯盟由Adobe、BBC、Intel、Microsoft、Sony和Truepic等公司共同創立,整合了Adobe領導的內容真實性倡議(CAI),該倡議致力于為數字媒體提供歷史背景,以及Microsoft和BBC領導的Project Origin倡議,旨在解決數字新聞生態系統中的虛假信息問題。
正如微軟首席科學官埃里克·霍維茨去年所說,公私合營的成功需要采取“多管齊下的方法,包括媒體素養、意識和警覺性的培養,以及投資高質量傳媒業的發展”。
微軟將推出一套新的先進溯源工具,幫助公眾識別人工智能生成的視聽內容并了解其來源。在年度開發者大會上,微軟宣布正在開發新的媒體溯源服務。該服務將使用元數據標記和簽名來驗證人工智能生成的視頻和圖像的真實性,該服務將按照C2PA的規范來實施。微軟將支持主流的圖像和視頻格式,并將該服務提供給兩款新人工智能產品Microsoft Designer和Bing Image Creator使用。這是一個重要措施,但也只是眾多措施中的一個。幸運的是,許多人也正在采取類似且關鍵的行動,因此,需要將相關實踐與更廣泛的倡議結合起來。
-
微軟
+關注
關注
4文章
6566瀏覽量
103956 -
人工智能
+關注
關注
1791文章
46859瀏覽量
237566
原文標題:微軟發布!人工智能治理:未來藍圖
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論