人工智能顛覆人類的想法已經討論了幾十年,科學家們剛剛就我們是否有能力控制一臺高級計算機超級智能做出了自己的判斷。答案呢?很遺憾,幾乎肯定是不可能的。
關鍵在于,要控制一個遠遠超出人類理解能力的超級智能,就需要對我們能夠分析的超級智能進行模擬。但如果我們不能理解它,就不可能建立這樣的模擬。
開展這項研究的科學家表示,如果我們不了解人工智能將會出現的情景,那么“不傷害人類”等規(guī)則就無法設定。一旦計算機系統(tǒng)的工作超出了程序員的能力范圍,我們就不能再設定限制了。
研究人員解釋道:“與那些打著‘機器人倫理學’旗號的典型研究相比,超級智能帶來了一個從根本上不同的問題。這是因為超智能是多方面的,因此有可能調動各種資源,以實現人類可能無法理解的目標,更不用說控制了。”
該研究團隊的部分推理來自艾倫圖靈(Alan Turing)在1936年提出的停頓問題。問題的核心是知道計算機程序是否會得出結論和答案(所以它會暫停),或者只是不停地循環(huán)試圖找到一個結論和答案。
正如圖靈通過一些聰明的數學證明的那樣,雖然我們可以知道對于某些特定程序,但從邏輯上講,不可能找到一種方法讓我們知道每一個可能編寫的潛在程序都是這樣的。 這使我們回到了AI領域,在超級智能狀態(tài)下,它可以將所有可能的計算機程序同時保存在內存中。
例如,任何旨在阻止人工智能傷害人類和毀滅世界的程序,都可能得出結論(并停止),或不會。從數學上講,我們不可能絕對確定哪種情況,這意味著它是不可遏制的。
德國馬克斯普朗克人類發(fā)展研究所的計算機科學家伊亞德拉赫萬說:“實際上,這使得遏制算法無法使用。”
研究人員說,除了教人工智能一些道德準則并告訴它不要毀滅世界之外(沒有任何算法能夠絕對肯定地做到這一點),另一種選擇是限制超級智能的能力。例如,它可能被切斷與部分互聯網或某些網絡的連接。
這項新的研究也否定了這個觀點,認為這會限制人工智能的應用范圍。理由是,如果我們不打算用它來解決超出人類理解范圍的問題,那為什么還要創(chuàng)造它呢?
如果我們要推進人工智能,我們甚至可能不知道什么時候會有一個我們無法控制的超級智能到來,這就是它的不可理解性。這意味著我們需要開始問一些關于我們要去的方向的嚴肅問題。
馬克斯普朗克人類發(fā)展研究所的計算機科學家曼紐爾塞布瑞恩(Manuel Cepian)說:“一臺控制世界的超級智能機器聽起來像科幻小說。但現實中,已經有一些機器可以在程序員完全不了解它們是如何學習的情況下獨立執(zhí)行某些重要任務。”
“因此,問題是,這是否會在某個時候變得無法控制,對人類來說是危險的。”
責任編輯:YYX
-
計算機
+關注
關注
19文章
7428瀏覽量
87730 -
人工智能
+關注
關注
1791文章
46882瀏覽量
237635
發(fā)布評論請先 登錄
相關推薦
評論