一份由26名專家聯合撰寫的報告,對人工智能技術的潛在威脅發出警告。他們認為,這項技術可能在未來5到10年催生新型網絡犯罪、實體攻擊和政治顛覆。
這份100頁的報告標題為《人工智能的惡意用途:預測、預防和緩解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation),參與撰寫的專家來自14家不同的機構和組織,包括牛津大學、劍橋大學和埃隆·馬斯克(Elon Musk)的OpenAI等。
作者在其中詳細闡述了人工智能可能在未來幾年做出哪些令人們普遍反感的事情。由于人工智能在很多方面的能力都遠超人類,所以該報告認為,這種技術現在會幫助敵對國家、犯罪分子和***展開精準而高效的攻擊,不僅能夠擴大范圍,還可以提高效率。
該報告寫道:“隨著人工智能越來越強大,越來越普及,我們預計人工智能系統的廣泛應用將導致現有威脅的擴大,還會引發新的威脅,甚至改變典型的威脅特征。”他們還警告稱,由于人工智能可以擴大規模,并減輕人類的負擔,所以攻擊成本也會大幅降低。類似地,由于可以借助這種系統來完成人類通常難以完成的任務,所以也有可能出現新的攻擊。
具體來說,該報告認為,與自動攻擊、釣魚、語音合成、數據中毒有關的網絡攻擊將會增多。無人機以及全自動和半自動駕駛系統的出現也會構成新的風險,包括多輛無人駕駛汽車故意撞擊,使用數千架無人機協同攻擊,把商用無人機變成人臉識別刺客,控制關鍵基礎設施以索要贖金。在政治方面,人工智能還可以用于左右民眾觀點,形成高度精準的宣傳,傳播虛假但卻可信的文章和視頻。人工智能還能在私有和公共空間催生更好的監控技術。
為了緩解這些威脅,該報告給出了5點建議:
人工智能和機器學習研究人員應該承認其研究成果是雙刃劍。
政策制定者應該與技術人員密切合作,調查、預防和緩解人工智能可能的惡意使用方式。
應該向電腦安全等其他高風險技術領域學習一些方法,將其應用于人工智能領域。
應該在這些領域優先形成規范和道德框架。
討論這些挑戰時所涵蓋的利益相關者和專家范圍應該擴大。
除此之外,報告作者還認為,應該“重新思考”網絡安全,并對制度化和技術性解決方案展開投資。他們還表示,開發者應該形成“責任文化”,考慮數據共享和開放性所帶來的力量。
未來智能實驗室是人工智能學家與科學院相關機構聯合成立的人工智能,互聯網和腦科學交叉研究機構。由互聯網進化論作者,計算機博士劉鋒與中國科學院虛擬經濟與數據科學研究中心石勇、劉穎教授創建。
未來智能實驗室的主要工作包括:建立AI智能系統智商評測體系,開展世界人工智能智商評測;開展互聯網(城市)云腦研究計劃,構建互聯網(城市)云腦技術和企業圖譜,為提升企業,行業與城市的智能水平服務。
-
人工智能
+關注
關注
1791文章
46859瀏覽量
237582
原文標題:人工智能的惡意用途:預測、預防和緩解
文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論