近年來,一些悲觀的媒體與專家開始擔憂人工智能的高速發展將會對人類自身的生存產生威脅,甚至連理論物理學家、《時間簡史》的作者霍金都曾公開告誡大眾:“完全人工智能的研發意味著人類的末日”。特斯拉與Space X的創始人埃隆·馬斯克與霍金有大致相似的擔憂。馬斯克說:我們必須非常小心人工智能。如果必須預測我們面臨的最大現實威脅,恐怕就是人工智能?!?/p>
李開復博士在《人工智能》一書中提到了三種不同層級的人工智能來回答這個問題。
一、弱人工智能(Weak AI)
弱人工智能(Weak AI)也稱限制領域人工智能(Narrow AI)或應用型人工智能(Applied AI),指的是專注于且只能解決特定領域問題的人工智能。毫無疑問,今天我們看到的所有人工智能算法和應用都屬于弱人工智能的范疇。
Alpha Go是弱人工智能的一個最好實例。Alpha Go在圍棋領域超越了人類最頂尖選手,笑傲江湖。但Alpha Go的能力也僅止于圍棋(或類似的博弈領域),下棋時,如果沒有人類的幫助(還記得Alpha Go與李世石比賽時,幫機器擺棋的黃士杰博士嗎?),Alpha Go連從棋盒里拿出棋子并置于棋盤之上的能力都沒有,更別提下棋前向對手行禮、下棋后一起復盤等圍棋禮儀了。
一般而言,限于弱人工智能在功能上的局限性,人們更愿意將弱人工智能看成是人類的工具,而不會將弱人工智能視為威脅。也就是說,弱人工智能在總體上只是一種技術工具,如果說弱人工智能存在風險,那也和人類已大規模使用的其他技術沒有本質的不同。只要嚴格控制,嚴密監管,人類完全可以像使用其他工具那樣,放心地使用今天的所有AI技術。
二、強人工智能(Strong AI)
強人工智能又稱通用人工智能(Artificial general intelligence)或完全人工智能(Full AI),指的是可以勝任人類所有工作的人工智能。
人可以做什么,強人工智能就可以做什么。這種定義過于寬泛,缺乏一個量化的標準來評估什么樣的計算機程序才是強人工智能。為此,不同的研究者提出了許多不同的建議。最為流行、被廣為接受的標準是圖靈測試。
(圖靈測試(The Turing test)由艾倫·麥席森·圖靈發明,指測試者與被測試者(一個人和一臺機器)隔開的情況下,通過一些裝置(如鍵盤)向被測試者隨意提問。
進行多次測試后,如果有超過30%的測試者不能確定出被測試者是人還是機器,那么這臺機器就通過了測試,并被認為具有人類智能圖靈測試一詞來源于計算機科學和密碼學的先驅阿蘭·麥席森·圖靈寫于1950年的一篇論文《計算機器與智能》,其中30%是圖靈對2000年時的機器思考能力的一個預測,目前我們已遠遠落后于這個預測。
但即便是圖靈測試本身,也只是關注于計算機的行為和人類行為之間,從觀察者角度而言的不可區分性,并沒有提及計算機到底需要具備哪些具體的特質或能力,才能實現這種不可區分性。
一般認為,一個可以稱得上強人工智能的程序,大概需要具備以下幾方面的能力:
1)存在不確定因素時進行推理,使用策略,解決問題,制定決策的能力;
2)知識表示的能力,包括常識性知識的表示能力;
3)規劃能力;
4)學習能力;
5)使用自然語言進行交流溝通的能力;
6)將上述能力整合起來實現既定目標的能力;
基于上面幾種能力的描述,我們大概可以想象,一個具備強人工智能的計算機程序會表現出什么樣的行為特征。一旦實現了符合這一描述的強人工智能,那我們幾乎可以肯定地說,所有人類工作都可以由人工智能來取代。從樂觀主義的角度講,人類到時就可以坐享其成,讓機器人為我們服務,每部機器人也許可以一對一地替換每個人類個體的具體工作,人類則獲得完全意義上的自由,只負責享樂,不再需要勞動。
強人工智能的定義里,存在一個關鍵的爭議性問題:強人工智能是否有必要具備人類的“意識”(Consciousness)。有些研究者認為,只有具備人類意識的人工智能才可以叫強人工智能。另一些研究者則說,強人工智能只需要具備勝任人類所有工作的能力就可以了,未必需要人類的意識。
一旦牽涉“意識”,強人工智能的定義和評估標準就會變得異常復雜。而人們對于強人工智能的擔憂也主要來源于此。不難設想,一旦強人工智能程序具備人類的意識,那我們就必然需要像對待一個有健全人格的人那樣對待一臺機器。那時,人與機器的關系就絕非工具使用者與工具本身這么簡單。擁有意識的機器會不會甘愿為人類服務?機器會不會因為某種共同訴求而聯合起來站在人類的對立面?一旦擁有意識的強人工智能得以實現,這些問題將直接成為人類面臨的現實挑戰。
三、超人工智能(Superintelligence)
假設計算機程序通過不斷發展,可以比世界上最聰明、最有天賦的人類還聰明,那么,由此產生的人工智能系統就可以被稱為超人工智能。
牛津大學哲學家、未來學家尼克·波斯特洛姆(Nick Bostrom)在他的《超級智能》一書中,將超人工智能定義為“在科學創造力、智慧和社交能力等每一方面都比最強的人類大腦聰明很多的智能”。顯然,對今天的人來說,這是一種只存在于科幻電影中的想象場景。
與弱人工智能、強人工智能相比,超人工智能的定義最為模糊,因為沒人知道,超越人類最高水平的智慧到底會表現為何種能力。如果說對于強人工智能,我們還存在從技術角度進行探討的可能性的話,那么,對于超人工智能,今天的人類大多就只能從哲學或科幻的角度加以解析了。
首先,我們不知道強于人類的智慧形式將是怎樣的一種存在。現在去談論超人工智能和人類的關系,不僅僅是為時過早,而是根本不存在可以清晰界定的討論對象。
其次,我們沒有方法,也沒有經驗去預測超人工智能到底是一種不現實的幻想,還是一種在未來(不管這個未來是一百年還是一千年、一萬年)必然會降臨的結局。事實上,我們根本無法準確推斷,到底計算機程序有沒有能力達到這一目標。
顯然,如果公眾對人工智能會不會挑戰、威脅人類有擔憂的話,公眾心目中所擔心的那個人工智能,基本上屬于這里所說的“強人工智能”和“超人工智能”。
我們到底該如何看待“強人工智能”和“超人工智能”的未來?它們會像Alpha Go那樣,以遠超我們預料的速度降臨世間嗎?
科技發展瓶頸帶來的緩沖帶
那么究竟什么到什么時候強人工智能和超人工智能才能被制造出來?是有前提的,前提是人類科技總是以加速度形式躍進的基礎上的。一種更有可能出現的情況是:特定的科技如人工智能,在一定時間的加速發展后,會遇到某些難以逾越的技術瓶頸。
有關計算機芯片性能的摩爾定律(價格不變時,集成電路上可容納的元器件數目每隔18到24個月便會增加一倍,性能也將提升一倍)就是一個技術發展遭遇瓶頸的很好例子。計算機芯片的處理速度,曾在1975年到2012年的數十年間保持穩定的增長趨勢,卻在2013年前后顯著放緩。2015年,連提出摩爾定律的高登·摩爾(Gordon Moore)本人都說:“我猜我可以看見摩爾定律會在大約10年內失效,但這并不是一件令人吃驚的事?!?/p>
正如原本受摩爾定律左右的芯片性能發展已遭遇技術瓶頸那樣,人工智能在從弱人工智能發展到強人工智能的道路上,未必就是一帆風順的。從技術角度說,弱人工智能與強人工智能之間的鴻溝可能遠比我們目前所能想象的要大得多。而且,最重要的是,由于基礎科學(如物理學和生物學)尚缺乏對人類智慧和意識的精確描述,從弱人工智能發展到強人工智能,其間有很大概率存在難以在短期內解決的技術難題。今天,學者們對超人工智能何時到來的問題眾說紛紜。悲觀者認為技術加速發展的趨勢無法改變,超越人類智能的機器將在不遠的將來得以實現,那時的人類將面臨生死存亡的重大考驗。而樂觀主義者則更愿意相信,人工智能在未來相當長的一個歷史時期都只是人類的工具,很難突破超人工智能的門檻。
-
摩爾定律
+關注
關注
4文章
632瀏覽量
78931 -
人工智能
+關注
關注
1791文章
46858瀏覽量
237552
原文標題:怎么理解人工智能的“威脅論”?
文章出處:【微信號:jingzhenglizixun,微信公眾號:機器人博覽】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論