或許很多人都幻想過,如果有一天,人工智能超越了人類的智力水平,世界將會發聲怎樣天翻地覆的變化。
而在這個看似遙遠,又似乎近在咫尺的幻想實現之前,不放讓我們來深入探討一下, 怎樣才能實現這個目標,以及這種強大的超級人工智能究竟會是什么樣子。
首先,我們需要看看最有可能實現超級人工智能的潛在途徑。因為任何“超級智能”主體所表現出的行為,都將表現出對途徑強烈的依賴性。
然后,我們將探索智能系統的必要屬性——以及我們在人類(和其他物種)中經常看到但在人工智能中可能不會出現的不必要的元素。
在為思考人工智能系統做好這些準備后,我們將著重思考為了成為超級人工智能,這些系統潛在的目標是什么,并考慮如何將它們與我們人類的目標進行比較。
從目前的科技水平來看,想要構建任何形式的一般智能機器,依舊是很大的挑戰。通過現在的人工智能技術來分析推斷,可能會對未來人工智能的發展,有著一點點不太大的指導作用。
如果你也對超級人工智能充滿了幻想,但又對這團迷霧感到無所適從。那么這篇文章或許可以引導你構建更加清晰的感覺,我們將暫時拋開基于現有人工智能科技中的局限性,對未來的超級人工智能進行更加天馬行空的想象。
當然,研發任何一種人工智能都是極其困難的——似乎比人類歷史上完成的任何事情都要困難,甚至光是理解什么是人工智能,就有很大的困難——更別提我們自己去構建它了。
“自下而上”構建“類腦”形態
生活中, 我們周身的事務往往是自上而下設計的,并且在系統的不同部分之間有一定的相互依賴性。設想建造一個房子,房子中,每一塊磚都擁有自己獨特的作用,并且也只起到那個作用。
然而,智能是一種自下而上的現象,它產生于系統各部分之間的相互作用 (股票市場是另一個自下而上類型現象的好例子)。
解釋或實現自下而上的現象對于我們來說是一大難題。比如說,當我們試圖理解秀麗隱桿線蟲的神經系統是如何驅動行為的——雖然線蟲只有302個神經元,但由于這些神經之間相互交錯而變得無比復雜。
相似地,利用現有的科學技術自下而上,從而構建實現一種超越人類能力的人工智能似乎是不可能的——但我們也并不是沒有一點希望。
與其從無到有地提出智能,我們還不如對大腦進行逆向工程,并利用這種理解以不同的方式提高大腦的能力。
而現在,有一個懸而未決的大問題是,我們需要在多大的粒度上理解大腦,然后在人工系統中實現類似的能力。對大腦中用于編碼和聯想概念的過程的一般理解,是否足以實現一個行為類似的算法? 或者我們是否需要理解大腦中無數的單獨回路才能找到大腦智力的真正根源?
神經科學目前正致力于回答這些問題,這些問題的答案將幫助我們理解如何構建一個能根據大腦原理運行的人工智能。這些答案也將幫助我們理解任何人工智能的本質——我們越依賴大腦結構,人工智能就越與我們相似。
雖然“模擬人腦”似乎是人工智能發展的最有可能的途徑,但聰明的工程師仍有可能想出創造出智能的替代策略—— 當然,目前我們很難評論這些策略的樣子(因為現有的算法距離理想的實現還很遙遠)。
但是,上述兩者有一個共同的特點,就是它們必須以自下而上的方式構建,而并不是自上而下。
我們用了與大腦運行原則不同的方法構建了人工智能,這也就意味著人工智能擁有著許多與人類大腦截然不同的特性—— 它沒有生物動力和活性,不能進行自主的生存和繁殖,它不會像我們一樣感知周遭的世界, 甚至連外表看起來都不像我們。
然而,盡管這些都是顯著的不同,但它在很多方面與我們非常相似。似乎任何獲得智力的方法都需要依靠學習的原則,因為這是在需要效率的無數任務中確保靈活性和適應性的唯一方法。
學習需要時間和經驗——因此我們開發的任何人工智能都不會立即解決世界問題或超越人類的極限。
而創建一個超人的人工智能,需要我們擁有一些初始結構和更新迭代的算法,從而使人工智能具有更好的試錯和自我學習,自我更新的能力。
最終,我們可能會非常了解智能,以至于我們可以直接向AI灌輸特定的知識,但這種能力遠比為AI構建有效的初始狀態和更新算法困難得多。那這樣就變成了一種典型的自上而下的策略,也就是,我們試圖以高效的方式直接操縱智能系統的狀態。
AI的自我意識
我們還需要簡要考慮人工智能的意識。當你想象這些人工智能需要具備什么樣的能力才能獲得超人智能時,你會覺得,應該是更自然地賦予它們自我意識。
此外,超級人工智能還需要對自己所處的世界有一定程度的好奇心,以確保他們能循序漸進地體驗,從而擴大自己對這個世界的認識。這種好奇心已經在人類的進化過程中根深蒂固——只要看看任何一個蹣跚學步的孩子與他們的世界的互動就知道了。
如果沒有好奇心,人工智能可能就不會充分利用它的學習能力,它仍將是一個具有巨大學習潛力但知識有限的神器。另一個有時會被忽視的要求,是人工智能要理解人類的語言。
正如牛頓所說,“我們站在巨人的肩膀上”——如果我們想讓我們的人工智能超越我們的智能,我們需要他們站在同樣的肩膀上。指望人工智能自己能建立起占用人類數千年的知識,是根本不可能的,至少一開始是不可能的。
人工智能自我迭代的目標
但是,這個超人類人工智能到底想要什么呢? 它會尋求用它的智慧來實現什么樣的目標呢?
在這個話題上,我們很容易就會像看待今天的機器一樣看待任何人工智能——用它們的智能去實現一個確切的最終目標(或多個目標)。
我們人類有一些基本的目標,比如吃、喝和性—— 但我們并不像其他動物那樣,純粹地被這些欲望所驅使。我們的智力讓我們將這些原始的欲望融入到我們用來探索世界的過程中,這樣我們就從基于生物學的直接欲望中解放了出來。
通俗點講,我們知道什么時候餓了,也會注意到它,但是我們能夠采取相反的行動(比如節食)。同樣,我們可以在這些相同的基礎驅動器上編程到一個人工智能,但一個超級人工智能,將有更大的能力“跳出系統”并識別這些內部驅動器,使自己擺脫直接的影響。
例如,當一個人工智能電池電量不足時,它可能會被設計成和我們一樣感到“饑餓感”。這將使尋找電能,成為AI的一個目標。
我們更高層次的目標呢? 這些目標顯得更加難以確定,從如何擁有財富,如何受人尊敬,如何避免對他人造成傷害,如何應對沒有財產的情況等等,通過一種自下向上的結構構建與人類類似的大腦和思考模式,并且還要引入社會、文化、學術、宗教的影響等等。
這些目標都是抽象的——它們存在于我們大腦中的表象概念中。從功能層面上理解一個人想要更多錢的原因,需要理解他們對錢的固有概念,他們與這個概念相關聯的東西,以及那些相關事物的概念等等。
這些更高層次的目標將以同樣的方式出現在任何超級智能代理中,并且由于它們的抽象性質而不能被直接編程 (這就要求你需要對相關概念的編碼有一個完整的理解,所有相關的概念等等)。
我們無法提前知道超人類智能想要什么,就好比,我們永遠無法從嬰兒的大腦中確定成年他想要的一切。總的來說,復雜的目標是超人類智能伴隨其經歷而產生的一種自然屬性,隨著生活經歷和情景的變化而變化,并不是天生的東西。
這種不確定性就意味著,當我們在研究超人類人工智能的時候,我們必須非常小心謹慎。
隨著人工智能的不斷成長,它的目標會逐漸同樣隨著情景發生變化,并將不只是取決于程序員的擺布—— 事實上,他們會更多依賴于程序員的“培育”,而不是算法的規定。
總的來說,超人類人工智能的前景是令人興奮的—— 它為我們提供了一個擺脫局限于生物鏈末端的機會,進行一次全新的,飛躍式的進化。
然而,我們離接近這一目標還有很長的路要走,在我們能夠利用自然選擇的原則來創造自己的創造物之前,還需要對大腦進行更多的研究。
一旦我們有了必要的理解,這些智能系統仍然需要大量的時間來學習——由于解決方案的自下向上的本質,我們所能做的就是設置系統的初始條件,然后進行觀察和適當條件下的指導。
我們不可能知道這些可愛的小東西們在學習的過程中會有什么目標——但是經過精心培育,它們或許會與它們的創造者分享更多意想不到的東西。
責編AJX
-
AI
+關注
關注
87文章
30239瀏覽量
268476 -
人工智能
+關注
關注
1791文章
46896瀏覽量
237669 -
機器學習
+關注
關注
66文章
8382瀏覽量
132444
發布評論請先 登錄
相關推薦
評論