隨著人工智在日常生活中愈發普及,AI監管的問題也逐漸浮出水面,日漸棘手。本文翻譯自文章《Point: Should AI Technology Be Regulated?: Yes, and Here's How》,文中首先提出AI監管勢在必行,其次闡釋了監管的重點和難點,接著分析介紹了規范人工智能的5條指南,旨在為相關部門的決策提出建議。文章最后,點明人工智能監管中最棘手之處在于:它不僅是一個技術問題,而且是一個社會學問題,并呼吁倫理學家等多方學者參與,共同來解決AI監管難題。
政府監管對于預防帶來的傷害是非常必要的。但監管是一種非常緩慢的過程,且很容易受到政治的干預。而且,當監管應用于人工智能等快速發展的領域時,錯位的監管可能會扼殺創新,破壞人工智能帶給我們的巨大的潛在好處,比如提高無人駕駛汽車的安全性、提高生產率等等。埃隆·馬斯克(Elon Musk)曾敦促美國政府盡早對人工智能進行監管,但我們也不希望監管阻礙技術的創新和發展。
為此,研究人員提出了一個折中的方法:即避免過度監管人工智能的研究,重點監管和關注人工智能在交通運輸、醫學、政治和娛樂等領域的應用。這種方法不僅平衡了人工智能研究帶來的好處和人工智能系統可能的潛在危害,而且更具可操作性。
監管AI到底有多棘手?
人工智能席卷全球的趨勢勢不可擋。如何監管卻成了棘手的問題。
監管AI存在的第一個問題就是如何定義AI?
曾經的AI只是一個國際象棋游戲機,但是現在,AI已融入我們的社交媒體、汽車、醫療設備等之中。技術進步的速度太快,并且迅速地融入我們的生活中,導致機器和智能機器之間的界限開始變得模糊不清。
比如“傷害(harm)”的概念就很難被納入算法中。自動駕駛汽車可以大幅減少高速公路事故,但同時人工智能也可能會造成一些事故,而且人工智能造成的事故比普通的人為事故更容易使人受到傷害。因為AI沒有常識,所以可能會刪除尚未備份的博士學位論文。墨菲的人工智能定律是,當你給AI一個目標時,無論你是否喜歡它實現其目標的含義,AI都會做到這一點。人工智能在定義諸如“傷害”等模糊的概念方面幾乎沒有常識。
監管雖然很難,但是必須監管。那應該采取哪些規則來解決過多、而且不充分的監管問題呢?本文建議從以下5個方面著手:
規范AI應用的5個指南
1 不要將AI武器化
首先是制定針對人工智能武器和網絡武器的法規。馬斯克在給聯合國的一封信中說:“自主武器(autonomous weapons)開發出來后,將會使武裝沖突的規模比以往任何時候都大,而且時間比人們想象地更快。自主武器可能會被用作恐怖武器,也可能被暴君和***用來對抗無辜的平民。所以我們不應該創建應用AI技術的殺戮機器。因此,第一個監管原則是:“不要將AI武器化。”
2法律約束
第二個指南是人工智能應受到適用于人類操作員的全部法律約束。如果說“the AI did it”即必須意味著作為AI的所有者、操作者或構建者的人們做到了。作為AI的所有者、操作者或構建者,即負責任的一方,必須確保AI不會傷害任何人;一旦對別人造成了傷害,就應該承擔責任。但是如果造成了傷害,應該可以區別出來是AI的擁有者,或者是生產商的責任,但是目前并沒有完善的法律體系來應對這種情況。
3明確告知“自己是AI”
AI應明確告知他人,自己是AI。這意味著Twitter聊天機器人、撲克機器人和其他人必須將自己標識為機器,而不是人。因為,已經有政治機器人對新聞文章發表評論,并產生不和諧的宣傳聲音。
4未經批準不得保留或披露機密信息
第四條指南是,未經消息來源事先明確批準,AI不得保留或披露機密信息。比如從Amazon Echo,Google Home和智能電視中收集的數據,或是看似無害的掃地機器人也可能創建精確的室內地圖。未來隱私問題只會越來越多越來越尖銳,需要更嚴格的隱私政策來保護人們及其信息。
5 消除偏見
AI應用程序規則的第五個指南是AI不得增加或放大系統中已存在的任何偏見。 現在AI使用過去的數據來預測未來。假如,數據顯示白人違約率為60%,而有色人種違約率只有20%,那么種族信息就對算法很重要。
與AI相關的另一個相關問題是,所有形式的AI(包括機器人,自治系統,嵌入式算法)必須具有問責性、可解釋性和透明性,以便人們能夠理解機器所做出的決策。美國的各州可以使用預測算法來計算囚犯未來構成的風險,并在法庭審判中用做量刑建議。人工智能和算法會用于決定誰可以訪問公共服務以及誰接受執法部門的額外審查。所有這些人工智能和算法的應用都提出了關于人權、系統性偏見和長期存在的不公平的棘手問題。
這也引出了人工智能監管中最棘手的問題之一:即它不僅是一個技術問題,而且是一個社會學問題,需要倫理學家和其他各方參與使用他們的專業知識來解決監管難題。
如何進行監管?
和其他法律法規一樣,單一的監管機構是不可行的,而是應該嵌入現有的監管機制之中。
比如,假設我有一輛無人駕駛汽車發生了事故。如果這是我的車,我就會被認為應該負責。但可能是汽車技術工藝存在缺陷才導致的事故,在這種情況下,制造商應該分擔責任。因此,無人駕駛汽車應該遵守與我們人類相同的法律,受聯邦機動車輛安全標準(Federal Motor Vehicle Safety Standards)和機動車駕駛法律的監督。
有些人可能會問:電車難題(trolley problem)怎么處理呢?如何對汽車進行編碼來確定如何在電車難題中做出抉擇呢?這并不是一個工程問題,而是一個哲學思想問題。實際上,無人駕駛汽車將減少事故中受傷或死亡的人數;由于算法做出選擇而導致某人受傷的極端情況只占事故的一小部分。以谷歌的自動駕駛Waymo為例,它在美國已經行駛超過200萬英里,200萬英里只有一次事故。其安全行駛率比任何駕駛員都低,大約比60-69歲的人低10倍,比新司機低40倍。
人工智能越來越普及,但是現有的監管機構尚未開始監管。但應該盡早識別這些應用程序,并確定監管機構來實現監管目標。我們必須認識到法律法規的目的是保護人類和社會免受傷害。可以通過人工智能的合作平臺和研究組織作為其對對人類和社會影響的討論和參與的開放平臺。蘋果和艾倫人工智能研究所等機構正在合作制定人工智能技術的最佳實踐;紐約大學的AI Now研究所和哈佛大學的Berkman-Klein中心也正致力于制定人工智能的道德準則。
-
機器人
+關注
關注
210文章
28226瀏覽量
206598 -
人工智能
+關注
關注
1791文章
46888瀏覽量
237643
原文標題:人工智能監管指南
文章出處:【微信號:drc_iite,微信公眾號:全球技術地圖】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論