最近,我與我最喜歡的新晉思想家就高性能和低性能AI進行了辯論,這讓我想起了自己一年多以前寫的東西,因此我決定拾起這些塵封的想法。人工智能的技術炒作太多了,有時應該回到其哲學根源。而在圍繞AI的所有哲學爭論中,最重要的就是對強弱AI的爭論。
從技術角度來看,我贊成這樣的想法,即在實現某種形式的強大或通用AI的領域,我們實現了一兩個突破。但從哲學的角度來看,仍然存在一些需要調和的挑戰。許多挑戰都可以通過上世紀奧匈帝國數學家開創的晦澀理論以及神經科學研究的領先領域之一來解釋。
在AI理論中,低性能AI系統通常只是看起來智能,而高性能AI機器則真正具備思考能力。這里的思考是指真正的思考,而不僅僅是模擬的思考。這種困境通常被稱為“高性能AI假設”。
在一個用數字助理和算法擊敗圍棋世界冠軍和魔獸世界2團隊的世界中,機器是否可以智能地行動這個問題似乎很愚蠢。在有限的一些環境中,例如醫學研究、圍棋、旅行等,我們已經能夠構建大量可發揮其智能作用的AI系統。大多數專家都認為低性能AI絕對是可能的,但對于高性能AI仍然存在極大的懷疑。
機器可以思考嗎?
自從艾倫·圖靈在1950年發表著名論文《計算機與智能》以來,這些問題就一直困擾著計算機科學家和哲學家。當大多數科學家甚至無法就思維的正式定義達成共識時,確定這個問題的答案似乎也不公平。
為了說明圍繞高性能AI假設的困惑,我們可以借鑒著名計算機科學家Edsger Dijkstra的幽默表達。他在1984年的一篇論文中將機器是否可以思考的問題與諸如“潛艇會游泳嗎?”或“飛機能飛嗎?”之類的問題進行了比較。
盡管這些問題看起來很相似,但大多數說英語的人都會同意,飛機實際上可以飛行,但潛艇不會游泳。這是為什么?這種比較的基本觀點是,如果沒有對思維的統一定義,那么對機器是否可以思考的癡迷似乎無關緊要。
在對高性能AI的主要反對意見中,從本質上講,不可能確定機器是否能夠真正思考。該論證源于有史以來最著名的數學定理之一。
哥德爾不完全性定理
當我們談論歷史上最偉大的數學理論對思維方式產生了廣泛的影響時,哥德爾的不完全性定理應該有一席之地。
1931年,數學家庫爾特·哥德爾(Kurt G?del)通過證明其著名的不完全性定理證明了演繹法的局限性。哥德爾定理指出了任何形式的可以進行算術運算的理論,但有真實的陳述在該理論內沒有證據。
長期以來,不完全性定理一直被用作反對強人工智能的對象。該理論的支持者認為,高性能AI主體將無法真正思考,因為它們受到不完全性定理的限制,而人類思維顯然不受限制。
該論點引發了很多爭議,許多高性能AI的從業者也拒絕接受它。高性能AI學派最常講的論點是,無法確定人類的思維是否服從于哥德爾定理,因為任何證據都需要形式化人類知識,而我們知道這是不可能的。
意識論證
在人們關于AI的激烈辯論中,我最喜歡的論點是意識。機器真的可以思考還是可以模擬思考?如果機器在將來能夠進行思考,這意味著它們將需要有意識(即意識其狀態和動作),因為意識是人類思維的基石。
對高性能AI的懷疑引發了各種爭論,包括經典的數學理論(例如G?del的不完全性定理)到AI平臺的純粹技術局限性。然而,生物學、神經科學和哲學的交集仍然是爭論的焦點,并且與人工智能系統的意識有關。
什么是意識?
關于意識有很多定義和爭論,這足以勸退多數人繼續追究其在AI系統中的作用的論點。意識的大多數定義都涉及自我意識或實體了解其心理狀態的能力,但是,當涉及到AI時,自我意識和精神狀態也沒有明確定義,因此我們就像飛速掉進兔子洞一樣,陷入了迷茫無措。
為了適用于AI,意識理論需要更加務實和技術化,并且要少一些哲學性。我最喜歡的遵循這些原則的意識定義來自物理學獎獲得者Michio Kaku,他是紐約大學理論物理教授,也是弦理論的創造者之一。
幾年前,Kaku博士提出了他所謂的“意識的時空理論”,將生物學和神經科學等領域對意識的定義匯總在一起。卡庫博士在其理論中對意識的定義如下:“意識是使用各種參數(例如溫度,空間,時間以及與他人有關的參數)的多個反饋回路創建世界模型的過程,以實現目標(例如尋找伴侶,食物,住所)。”
意識的時空定義直接適用于AI,因為它基于大腦創建世界模型的能力,不僅基于空間(如動物),還基于與時間的關系(向后和向前)。從這個角度來看,卡庫博士將人類意識定義為“一種意識形式,它可以創建世界模型,然后通過評估過去來模擬未來,從而及時地對其進行模擬。”換句話說,人類意識與我們對未來的計劃能力直接相關。
除了其核心定義外,意識的時空理論還包括幾種意識類型:
級別0:包括行動不便的植物等生物,它們使用諸如溫度之類的少數參數創建其空間模型。
級別1:像爬行動物這樣的生物,它們活動并且具有神經系統。這些生物使用更多其他參數來形成其空間模型。
級別2:諸如哺乳動物之類的生物不僅建立在空間基礎上,而且還建立在與他人有關的世界模型上。
級別3:了解時間關系并具有想象未來的獨特能力的人類。
AI系統有意識嗎?
意識是AI圈中最激烈的辯論主題之一。這里的AI意識,指的是AI能夠自我意識到其“心理狀態”的能力。前文介紹了一個由著名物理學家Michio Kaku博士率先提出的框架,用于從四個不同的層面評估意識。
在卡庫博士的理論中,0級意識描述了諸如植物之類的生物,它們根據諸如溫度之類的一些參數評估其真實性。爬行動物和昆蟲在使用包括空間在內的新參數創建世界模型時表現出1級意識。2級意識涉及根據情感和與其他物種的關系創建世界模型。哺乳動物是與2級意識相關的主要種群。最后,我們可以根據涉及未來模擬的世界模型將人類意識歸于3級意識。
基于Kaku博士的意識框架,我們可以評估當前一代AI技術的意識水平。大多數專家都認為,當今的AI代理可以分為1級或2級早期意識。將AI代理排名為1級涉及許多因素,包括流動性。
如今,許多AI代理已經能夠實現移動性并根據其周圍的空間開發其環境模型。但是,大多數AI代理在受限的環境之外進行操作都有很多困難。
空間評估并不是將AI代理置于1級意識的唯一因素。用于創建模型的反饋回路的數量是要考慮的另一個超重要因素。
讓我們以圖像分析為例。即使是最先進的視覺AI算法,也是使用相對少量的反饋回路來識別對象。如果我們將這些模型與認知能力,昆蟲和爬行動物進行比較,它們似乎并不復雜。所以,是的,當前的人工智能技術具有昆蟲的意識。
進入二級意識
一些AI技術已經穩定地展現出2級意識的特征,有幾個因素促成這一發展。人工智能技術正在獲得更高級的理解和模擬情緒,以及感知周圍的情緒反應。
除了基于情感的AI技術發展外,AI代理在團體環境中的運行效率也越來越高,在團體環境中,他們需要相互協作或競爭才能生存。在某些情況下,小組合作甚至可以創造出新的認知技能。具有2級意識的AI代理的最新案例,我們能想到DeepMind和OpenAI等公司的工作。
最近,DeepMind進行了一些實驗,其中需要AI代理住在資源有限的環境中。當資源豐富和貧瘠時,人工智能代理表現出不同的行為。由于代理需要相互交互,因此行為發生了變化。
在最近的OpenAI模擬實驗中也能找到一個有趣的示例,在該實驗中,AI代理能夠使用少量符號創建自己的語言,以便更好地在其環境中共存。
主流的AI解決方案仍處于早期階段,但提高AI代理的意識水平是當前AI技術堆棧中最重要的目標之一,2級意識是下一個研究領域。
升至三級意識
目前,人工智能系統中的三級意識仍是一個活躍的辯論主題。但是,最近的系統(例如OpenAI Five或DeepMind Quake III)已經清楚地顯示了AI代理進行長期計劃和協作的能力,因此我們可能不日實現這個目標。
AI系統有意識嗎?我的答案是肯定的。將Kaku博士的時空意識理論應用到AI系統中,很明顯AI代理可以表現出一些基本的意識形式。考慮到當前AI技術的能力,我將AI代理的意識置于I級(爬行動物)或II級基本水平。
至于三級,雖然距離尚遠,但我認為這絕不是天方夜譚。
責編AJX
-
AI
+關注
關注
87文章
30172瀏覽量
268431 -
人工智能
+關注
關注
1791文章
46872瀏覽量
237595 -
機器
+關注
關注
0文章
779瀏覽量
40687
發布評論請先 登錄
相關推薦
評論