如果我們不能就這意味著什么達成一致,我們就無法用靈魂來編程一個有意識的機器人。
編寫終結者 是為了嚇唬我們; 編寫WALL-E是為了讓我們哭泣。機器人不能做我們在電影中看到的可怕或令人心碎的事情,但問題依然存在: 如果他們可以做什么?
當然,我們今天擁有的技術并不是那么復雜到足以完成其中任何一項。但是人們一直在問。這些討論的核心是一個問題:機器能夠變得有意識嗎?他們甚至可以發展 - 或者被編程包含 - 一個靈魂?至少,算法是否包含類似 靈魂的東西 ?
這些問題的答案完全取決于您如何定義這些問題。到目前為止,自人工智能首次成為學術追求以來,我們在70年代尚未找到令人滿意的定義。
以最近在BBC上發表的一篇文章為例,該文章試圖用靈魂來解決人工智能的問題。作者定義了如何讓一個不朽的靈魂以一種幾乎立即遠離神學領域的方式引導對話的意義。當然,這很好,因為天空中一位穿著長袍的老人似乎不太可能向Cortana呼吸生命。但它沒有回答核心問題 - 人工智能不僅僅是一種無意識的工具嗎?
這BBC文章列出的條款 - 即人工智能系統,它的作用就好像它有靈魂將被旁觀者來決定。對于我們中間的宗教和精神,一個足夠先進的算法似乎可以呈現一個靈魂。那些人可能會這樣對待它,因為他們會查看人工智能系統的智力,情感表達,行為,甚至可能是對神的信仰,作為內部某些可被定義為靈魂的東西的標志。
因此,包含某種人工智能的機器可以同時被視為一個實體或研究工具,具體取決于您的要求。與許多事情一樣,關于什么會使機器意識到的爭論大部分歸結為我們自己投射到算法上的內容。
“我對編程計算機的興趣不如培養小原子實體,” Brigham Young大學的計算機科學家Nancy Fulda對未來主義說。“這是模式的發現,獨特行為的出現,首先吸引我進入計算機科學。這就是我還在這里的原因?!?/p>
富爾達已經訓練人工智能算法來理解語境語言,并且正在努力建立一種機器人心理理論,這是人類(和某些動物)心理學中的一個原則,它讓我們用自己的想法和意圖認識他人。但是,你知道,對于機器人。
“至于計算機是否能擁有神圣創造的靈魂:我不敢推測,”富爾達補充道。
有兩個主要問題需要解決。第一個是語義之一:很難定義它有意識或有意識的真正意義,或者具有靈魂或靈魂功能的意義,正如BBC的文章所描述的那樣。
第二個問題是技術進步。與創造人工感知所需的技術相比 - 無論它看起來像什么樣,或者我們可能選擇定義它 - 甚至我們最先進的工程師仍然擠在洞穴中,將棍子揉在一起制造火并煮一些猛烈的猛犸象牛排。
在去年的一個小組討論中,生物學家和工程師Christof Koch與認知科學家David Chalmers 就意識到的意義進行了對比。談話在關于機器和僵尸的思辨性思想實驗之間反彈(定義為那些與人無法區別但缺乏內心思維的人)。它經常偏離可以用科學證據確鑿證明的事物。查爾莫斯認為,一臺比我們今天更先進的機器可以變得有意識,但科赫不同意,基于神經科學和人工智能技術的現狀。
神經科學文獻認為意識是由我們的大腦構建的敘事,它結合了我們的感官,我們如何感知世界,以及我們的行為。但即使在這個定義中,神經科學家也很難確定我們為什么有意識以及如何最好地根據神經活動來定義它。而對于宗教來說,這種意識是否與擁有靈魂所賦予的意識相同?這甚至都不涉及技術主題。
帕爾杜比采大學的哲學家和倫理學家翁德熱·貝蘭告訴未來主義說:“人們經常將靈魂與思想混淆,或者更具體地說,是產生復雜行為模式的能力。”
“AI人經常將靈魂與心靈混淆”
“靈魂的概念在我們的文化中扮演的角色與我們說某人的靈魂是高尚或墮落的背景交織在一起,”Beran補充道 - 也就是說,它帶來了價值判斷。“[我]我認為所需要的不是人工智能科學或工程學的突破,而是一般的概念轉變。人們使用他們的語言相互聯系的敏感性和想象力的轉變?!?/p>
Beran舉了人工智能產生的藝術品的例子。通常,這些作品都是為了好玩而呈現的。但是,當我們稱某種算法創造“藝術”的東西時,我們常常不會考慮算法是僅僅生成了某種形式的圖像或旋律,還是創造了一些有意義的東西 - 不僅是對觀眾,而且對自己。當然,人類創造的藝術也常常無法達到第二組。Beran補充說:“目前尚不清楚什么對人工智能具有重要意義。”
那么當一臺機器能夠內部思考而不是盲目地攪動輸入和輸出時,機器能夠獲得感知嗎?或者在我們作為一個社會認為機器是否有意識之前,它真的需要內部的東西嗎?同樣,我們選擇接近問題的方式以及我們到達的具體定義使答案變得混亂。
“我相信靈魂不是一種物質,”捷克科學院的哲學家弗拉基米爾·哈夫里克(VladimirHavlík)試圖從進化的角度來定義人工智能,他告訴未來主義?!拔覀兛梢哉f它就像一個連貫的身份,在時間的流逝和人的代表中永久地構成,”他補充說。
哈維利克建議,不要擔心靈魂的神學方面,我們可以將靈魂定義為一種經得起時間考驗的內在品格。從這個意義上說,他認為沒有理由為什么機器或人工智能系統無法開發角色 - 它只取決于算法本身。在Havlík看來,角色來自意識,因此開發這樣一個角色的AI系統需要基于足夠先進的技術,他們可以制作并以一種比較過去結果與未來預期的方式反映決策,就像人類如何了解世界。
但是,我們是否可以建立一個靈魂機器或有意識的機器的問題只對那些認為這些區別很重要的人來說很重要。人工智能的核心是工具。甚至更復雜的算法可以繞過線并呈現為有意識的實體,是有意識的生物的再創造,而不是新的思維種類,自我意識的生物。
“我對人工智能的態度基本上是務實的,” 聯邦大學人工智能研究員Peter Vamplew告訴未來主義。“對我而言,人工智能系統是否具有真正的智能,或真實的情感和同理心并不重要。重要的是它的行為方式使其對人類社會有益?!?/p>
“對我而言,人工智能系統是否具有真正的智能并不重要。..。..重要的是它的行為方式使其對人類社會有益?!?/p>
對于Vamplew來說,機器是否有靈魂的問題只有在你將靈魂視為一個概念時才有意義。他沒有,所以事實并非如此。他覺得機器有一天可能會重新產生令人信服的情緒反應,并表現得好像是人類,但沒有理由將神學引入混合體。
并且他不是那種在機器中感覺真正意識不可能的人?!拔沂欠浅jP鍵的人工意識的想法,” 貝爾納哥本哈根,哲學家和人工智能研究員對未來主義?!拔艺J為這是無稽之談。另一方面,人工智能是未來?!?/p>
卡斯特魯普最近為科學美國人撰寫了一篇文章,其中他闡述了他的觀點,即意識是自然宇宙的一個基本方面,人們利用分離的意識碎片成為獨特的個體。他澄清說,他相信即使是一般的人工智能 - 我們在科幻小說中看到的那種包羅萬象的人工智能的名稱 - 可能有一天會出現,但即使是這樣的人工智能系統也永遠不會有私人的,有意識的內心思想就像人類一樣。
“不幸的是,索菲亞充其量是荒謬的。而且,更重要的是,我們仍然與她有關,“Beran說,他指的是Hanson Robotics的部分智能機器人。
更令人遺憾的是,人們越來越懷疑我們開發先進人工智能的方法很快就會陷入困境。上周發表在“紐約時報”上的一篇文章引用了多位工程師,他們越來越懷疑我們的機器學習,甚至深度學習技術將會像近年來一樣繼續增長。
我討厭成為泥巴中的一根棍子。我真的這樣做。但是,即使我們解決關于意識,有意識,有靈魂意味著什么的語義爭論,我們也可能永遠缺乏將算法帶到這一點的技術。
但是,當人工智能首次啟動時,沒有人能夠預測它今天可以做的事情。當然,人們想象機器人幫助者是Jetsons或者Epcot的先進交通工具,但是他們并不知道會讓我們到那里的切實步驟。而今天,我們不知道將我們帶到情感智能,敏感,深思熟慮和真實內省的機器的切實步驟。
絕不這是否使不可能任務-我們只是不知道怎么去還。事實上,我們還沒有解決關于在哪里實際設置終點線的爭論,這使得它變得更加困難。
“我們還有很長的路要走,”富爾達說。她建議答案不是拼湊算法,因為我們經常用人工智能解決復雜問題。
“你無法一次解決一個人類問題,”富爾達說。“這是一種格式塔體驗?!崩?,她認為,如果不理解感知和運動,我們就無法理解認知。如果不知道如何模仿移情和社會意識,我們就無法準確地模擬語音。富爾達說,試圖將這些碎片一次放在一臺機器中,就像通過將適量的油漆倒入罐中來重現蒙娜麗莎。
無論杰作是否在那里等待繪畫,還有待確定。但如果是這樣的話,像富爾達這樣的研究人員正在爭先恐后地試圖刷中風。只要我們繼續尋求這些問題的答案,技術就會向前邁進。但是,當我們編寫新的代碼,使機器明天做我們無法想象的事情時,我們仍然需要理清我們希望它所有的領導地位。
我們是達芬奇嗎,畫一個自我陶醉的女人,幾個世紀以來會被欽佩,還是我們會成為天王星,創造出推翻我們的神?現在,人工智能將完全按照我們告訴AI做的,無論好壞。但是,如果我們轉向算法開始,至少,作為有感覺的,我們必須弄清楚這意味著什么。
評論
查看更多