現在,深度學習面臨著無法進行推理的困境,這也就意味著,它無法讓機器具備像人一樣的智能。但是真正的推理在機器中是什么樣子的呢?如果深度學習不能幫助我們達到目的,那什么可以呢?文章作者為克萊夫·湯普森(@pomeranian99),原標題為“How to Teach Artificial Intelligence Some Common Sense”。
一
五年前,總部位于倫敦的人工智能公司DeepMind的程序員,興奮地看著人工智能自學玩一款經典的街機游戲。他們在一項看似“異想天開”的任務上使用了當今最熱門的技術——深度學習——掌握了Breakout。
這是一款雅達利(Atari)開發的游戲,在游戲中,你需要用移動下方的平板,把球彈起,然后把上方的所有磚塊都打消失。
深度學習,是機器進行自我教育的一種方式;你給人工智能提供大量的數據,它會自己識別模式。在這個游戲中,數據就是屏幕上的活動——代表磚塊、球和玩家平板的塊狀像素。
DeepMind的人工智能,一個由分層算法組成的神經網絡,并不知道任何關于Breakout的工作原理、規則、目標,甚至如何發揮它都不清楚。編碼器只是讓神經網絡檢查每個動作的結果,每次球的彈起軌跡。這會導致什么?
事實證明,它會掌握一些令人印象深刻的技能。在最初的幾場游戲中,人工智能只是控制下方的平板四處亂晃。但是玩了幾百次之后,它已經開始準確地將球彈起了。到了第600場比賽時,神經網絡使用了一種專業的人類Breakout游戲玩家使用的動作,鑿穿整排磚塊,讓球沿著墻頂不停跳躍。
“這對我們來說,是一個很大的驚喜,”DeepMind的首席執行官德米斯·哈薩比斯(Demis Hassabis)當時說道。“這一策略完全來自底層系統。”
人工智能,已經顯示出它能夠像人類一樣進行異常微妙的思考,掌握Breakout背后的內在概念。因為神經網絡松散地反映了人腦的結構,所以從理論上說,它們應該在某些方面模仿我們自己的認知方式。這一刻似乎證明了這個理論是正確的。
去年,位于舊金山的一家人工智能公司Vicorance的計算機科學家,提供了一個有趣的現實檢驗。他們采用了一種類似DeepMind所用的人工智能,并在Breakout上進行了訓練。
結果很棒。但隨后,他們稍微調整了游戲的布局。在一次迭代中,他們將平板提得更高了;另一次迭代中,他們在上方增加了一個牢不可破的區域。
人類玩家可以快速適應這些變化,但神經網絡卻不能。 這個看起來很聰明的人工智能,只能打出它花了數百場比賽掌握的Breakout的方法。 它不能應對新變化。
“我們人類不僅僅是模式識別器,”Vicarious的共同創始人之一、計算機科學家迪利普·喬治(Dileep George)告訴我。“我們也在為我們看到的東西建立模型。這些是因果模型——有我們對因果關系的理解。”
人類能夠推理,也會對我們周圍的世界進行邏輯推理,我們有大量的常識知識來幫助我們發現新的情況。當我們看到一款與我們剛剛玩的游戲略有不同的Breakout游戲時,我們會意識到,它可能有著大致相同的規則和目標。
但另一方面,神經網絡對Breakout一無所知。它所能做的就是遵循這個模式。當模式改變時,它無能為力。
深度學習是人工智能的主宰。在它成為主流以來的六年里,它已經成為幫助機器感知和識別周圍世界的主要方式。
它為Alexa的語音識別、Waymo的自動駕駛汽車和谷歌的即時翻譯提供了動力。從某些方面來說,Uber的網絡也是一個巨大的優化問題,它利用機器學習來找出乘客需要汽車的地方。中國科技巨頭百度,有2000多名工程師在神經網絡人工智能上努力工作。
多年來,深度學習看上去越來越好,不可阻擋地讓機器擁有像人一樣流暢、靈活的智力。
但是一些人認為,深度學習正在面臨困境。他們說,單憑這一點,它永遠不會產生廣義上的智能,因為真正像人類一樣的智能,不僅僅是模式識別。
我們需要開始弄清楚如何讓人工智能具備常識。他們警告說,如果我們不這樣做,我們將會不斷地觸及深度學習的極限,就像視覺識別系統,只要改變一些輸入,就會很容易被愚弄,比如,讓深度學習模型認為烏龜就是一桿槍。
但他們說,如果我們成功了,我們將見證更安全、更有用的設備爆炸式增長——比如在雜亂的家中自由行動的醫療機器人、不會誤報的欺詐檢測系統等等。
但是,真正的推理在機器中是什么樣子的呢?如果深度學習不能幫助我們達到目的,那什么可以呢?
二
加里·馬庫斯(Gary Marcus)是紐約大學的心理學和神經科學教授,現年48歲,戴著眼鏡,憂心忡忡。他可能是最著名的深度學習反對者。
馬庫斯第一次對人工智能感興趣,是在20世紀80年代和90年代,當時神經網絡還處于實驗階段,從那以后,他就一直在做同樣的論證。
“我不只是來晚了,而且還想在派對上撒尿,”當我在紐約大學附近的公寓遇見他時,馬庫斯告訴我。(我們也是私人朋友。)“深度學習剛開始爆發的時候,我就說‘方向錯了,伙計們!’”
那時,深度學習背后的策略和現在是一樣的。比方說,你想要一臺機器來自己學習識別雛菊。首先,你需要編寫一些算法“神經元”,像三明治一樣,將它們層層連接起來(當你使用多層時,三明治會變得更厚或更深——因此是“深度”學習)。
你在第一層輸入一個雛菊的圖像,它的神經元會根據圖像是否像它以前看到的雛菊的例子而進行判斷。然后,信號將移動到下一層,在那里循環這個過程。最終,這些層會得出一個結論。
起初,神經網絡只是盲目猜測;它或多或少地讓生活從一張白紙開始。關鍵是建立一個有用的反饋回路。每當人工智能沒有識別出雛菊時,那組神經連接就會削弱導致錯誤猜測的鏈接;如果它成功了,它會加強。
給定足夠的時間和足夠多的雛菊樣本,神經網絡會變得更加精確。它學會了通過直覺來識別一些雛菊的模式,讓它每次都能識別出雛菊(而不是向日葵或菊花)。
隨著時間的推移,這一核心理念——從一個簡單的網絡開始,通過重復訓練——得到了改進,似乎可以應用到幾乎任何地方。
但是馬庫斯從未被說服。對他來說,問題就在于一張白紙:它假設人類純粹通過觀察周圍的世界來建立他們的智力,機器也可以。
但是馬庫斯不認為人類就是這樣工作的。他認可諾姆·喬姆斯基( Noam Chomsky )的智力發展理論,他認為人類天生就有學習的天賦,能夠掌握語言和解釋物質世界,而不是一張白紙。
他指出,盡管有很多人認為神經網絡是智能的,但它似乎不像人類大腦那樣工作。首先,它們太需要數據了。
在大多數情況下,每個神經網絡都需要數千或數百萬個樣本來學習。更糟糕的是,每次你想讓神經網絡識別一種新的項目,你都必須從頭開始訓練。一個識別金絲雀的神經網絡在識別鳥鳴或人類語言方面沒有任絲毫用處。
“我們不需要大量的數據來學習,”馬庫斯說。他的孩子不需要看一百萬輛車就能認出車輛來。更好的是,他們可以“抽象化”,當他們第一次看到拖拉機時,他們會知道它有點像汽車。他們也可以進行反事實的工作。
谷歌翻譯可以將法語翻譯成英語。但是它不知道這些話是什么意思。馬庫斯指出,人類不僅掌握語法模式,還掌握語法背后的邏輯。你可以給一個小孩一個假動詞,比如pilk,她很可能會推斷過去式是 pilked。當然,她以前沒見過這個詞。她沒有接受過這方面的“訓練”。她只是憑直覺知道了語言運作的一些邏輯,并能將其應用到一個新的情況中。
“這些深度學習系統不知道如何整合抽象知識,”馬庫斯說,他創立了一家公司,創造了用更少的數據進行學習的人工智能(并在2016年將公司賣給了Uber)。
今年早些時候,馬庫斯發表了一份關于arXiv的白皮書,認為如果沒有一些新的方法,深度學習可能永遠不會突破目前的局限。它需要的是一種推動力——補充或內置的規則,以幫助它對世界進行推理。
三
奧倫·埃齊奧尼(Oren Etzioni)經常面帶微笑。他是一位計算機科學家,在西雅圖經營著艾倫人工智能研究所(Allen Institute for Artificial Intelligence)。
在他明亮的辦公室里向我打招呼,領我走過一塊白板,上面潦草地寫著對機器智能的思考。(“定義成功”,“任務是什么?”)在外面,年輕的人工智能研究員戴著耳機,敲擊著鍵盤。
埃茨奧尼和他的團隊正在研究常識問題。他將此定義為兩個傳奇的人工智能時刻——1997年 IBM 的深藍(Deep Blue)擊敗象棋大師加里·卡斯帕羅夫(Garry Kasparov) ,以及去年DeepMind的AlphaGo擊敗世界頂尖圍棋選手李世石。(谷歌在2014年收購了DeepMind。)
“有了深藍,當房間著火的時候,我們的程序可以做出超人一般的象棋棋步。”埃茨奧尼開玩笑說。“對吧?完全缺乏背景。快進20年,當房間著火的時候,我們有了一臺電腦,可以下出超人一般的圍棋棋步。”
當然,人類沒有這個限制。如果發生火災,人們會拉響警報,奔向大門。
換句話說,人類擁有關于這個世界的基本知識(火會燒東西) ,同時還有推理的能力(你應該試著遠離失控的火)。
為了讓人工智能真正像人類一樣思考,我們需要教它所有人都知道的東西,比如物理學(拋向空中的球會落下)或相對大小的東西(大象無法被放進浴缸)。 在人工智能擁有這些基本概念之前,埃茨奧尼認為人工智能無法進行推理。
隨著保羅·艾倫(Paul Allen)投入了數億美元,埃茨奧尼和他的團隊正在努力開發一個常識推理層,以適應現有的神經網絡。(艾倫研究所是一個非營利組織,所以他們發現的一切都將被公開,任何人都可以使用。)
他們面臨的第一個問題,就是回答一個問題:什么是常識?
埃茨奧尼把它描述為我們認為理所當然,但很少大聲說出的關于世界的所有知識。他和他的同事創造了一系列基準問題,一個真正理性的人工智能應該能夠回答:如果我把襪子放在抽屜里,它們明天會在那里嗎?如果我踩了別人的腳趾,他們會生氣嗎?
獲取這種知識的一種方法,是從人類那里提取。埃茨奧尼的實驗室正在付費給亞馬遜土耳其機器人上的眾包人員,以幫助他們制作常識性的陳述。
然后,研究團隊會使用各種機器學習技術——一些老式的統計分析,一些深度學習的神經網絡——基于這些陳述進行訓練。如果他們做得對,埃茨奧尼相信他們可以生產出可重復使用的計算機推理“樂高積木”:一套能夠理解文字,一套能夠掌握物理知識,等等。
崔葉金 (Yejin Choi)是埃茨奧尼團隊研究常識的科學家之一,她負責了幾次眾包工作。 在一個項目中,她想開發一種人工智能,能夠理解一個人的行為,或陳述出來其隱含的意圖或情感。
她首先研究了成千上萬個 Wiktionary 中的在線故事、博客和習語條目,提取出“短語事件”,比如“杰夫(Jeff)把羅杰(Roger)打昏了” 。然后,她會匿名記錄每個短語——“X把Y打昏”——并要求土耳其機器人平臺上的眾包人員描述X的意圖:他們為什么這樣做?
當她收集了25000個這樣的標記句子后,她用它們訓練一個機器學習系統,來分析它從未見過的句子,并推斷出句子的情緒或意圖。
充其量,新系統運行的時候,只有一半時間是正常的。但是當它正式運行的時候,它展示了一些非常人性化的感知:給它一句像“奧倫(Oren)做了感恩節晚餐”這樣的話,它預測奧倫試圖給家人留下深刻印象。
“我們也可以對其他人的反應進行推理,即使他們沒有被提及,”崔說。“所以X的家人可能會感到印象深刻和被愛。”
她的團隊建立的另一個系統使用土耳其機器人平臺上的眾包人員在故事中標記人們的心理狀態;當給定一個新的情況時,由此產生的系統也可以得出一些“尖銳”的推論。
例如,有人告訴我,一名音樂教練對他的樂隊糟糕的表演感到憤怒,并說“教練很生氣,把他的椅子扔了。人工智能會預測他們會“事后感到恐懼”,盡管這個故事沒有明確說明這一點。
崔葉金、埃茨奧尼和他們的同事并沒有放棄深度學習。事實上,他們認為這是一個非常有用的工具。但是,他們不認為有捷徑,可以說服人們明確陳述我們所有人都擁有的怪異、無形、隱含的知識。
深度學習是垃圾輸入,垃圾輸出。僅僅給一個神經網絡提供大量新聞文章是不夠的,因為它不會吸取未陳述的知識,這是作家們不愿提及的顯而易見的事情。
正如崔葉金所說,“人們不會說‘我的房子比我大’。”為了幫助解決這個問題,她讓土耳其機器人平臺上的眾包人員分析了1100個常見動詞所隱含的物理關系,例如“X扔了Y”。這反過來又提供了一個簡單的統計模型,可以用“奧倫扔了一個球”這個句子來推斷球一定比奧倫小。
另一個挑戰是視覺推理。阿尼魯達·凱姆巴維(Aniruddha Kembhavi)是埃茨奧尼團隊中的另一位人工智能科學家,他向我展示了一個在屏幕上漫步的虛擬機器人。 艾倫研究所的其他科學家建造了類似模擬人生的房子,里面裝滿了日常用品——廚房櫥柜里裝滿了碗碟,沙發可以隨意擺放,并符合現實世界中的物理定律。
然后他們設計了這個機器人,它看起來像是一個有手臂的深灰色垃圾筒,研究人員告訴它,讓它搜尋某些物品。在完成數千項任務后,這個神經網絡獲得了在現實生活中生活的基礎。
“當你問它‘我有西紅柿嗎?它不會打開所有的櫥柜。它更傾向去打開冰箱,”凱姆巴韋說。“或者,如果你說‘給我找我的鑰匙’,它不會試圖拿起電視。它會去看電視機后面。它已經知道,電視機通常不會被拿走。”
埃茨奧尼和他的同事希望這些不同的組成部分——崔葉金的語言推理、視覺思維,以及他們正在做的讓人工智能掌握教科書科學信息的其他工作——最終能夠結合在一起。
但是需要多長時間,最終的產品會是什么樣子?他們不知道。他們正在建立的常識系統仍然會出錯,有時甚至超過一半的概率。
崔葉金估計,她將需要大約一百萬人工語言來訓練她的各種語言解析器。 建立常識似乎異乎尋常地困難。
四
制造機器還有其他合理的方式,但它們的勞動密集程度更高。 例如,你可以坐下來,用手寫出所有要告訴機器世界如何運作的規則。 這就是道格·萊納特(Doug Lenat)的 Cyc 項目的工作原理。
34年來,萊納特雇傭了一個工程師和哲學家團隊,來編寫2500萬條常識性規則,比如"“水是濕的”或者“大多數人都知道他們朋友的名字”。這讓Cyc能夠推斷:“如果你的襯衫濕了,所以你可能是在雨中。” 優勢在于,萊納特能夠精確地控制輸入 Cyc 數據庫的內容; 而眾包知識并非如此。
這種由粗暴的手動行為做出來的人工智能,在深度學習的世界中已經變得不流行。這在一定程度上是因為它可能“脆弱”:如果沒有正確的世界規則,人工智能可能會陷入困境。這就是程式化的聊天機器人如此“智障”的原因;如果如果沒有明確告訴它們如何回答一個問題,它們沒有辦法推理出來。
Cyc的能力比聊天機器人更強,并且已經經過批準,可以用于醫療保健系統、金融服務和軍事項目。但是這項工作進展非常緩慢,而且耗資巨大。萊納特說開發Cyc花費了大約2億美元。
但是,一點一點地進行手工編程可能只是復制一些固有的知識,根據喬姆斯基(Chomskyite)的觀點,這是人類大腦擁有的知識。
這就是迪利普·喬治和研究人員對Breakout所做的事情。為了創造一個不會面對游戲布局變化而變“智障”的人工智能,他們放棄了深入學習,建立了一個包含硬編碼基本假設的系統。
喬治告訴我,他們的人工智能不費吹灰之力就學會了“物體是存在的,物體之間有相互作用,一個物體的運動與其和其他物體之間的碰撞有因果關系。”
在Breakout中,這套系統發展出了衡量不同行動過程及其可能結果的能力。但這也起到了相反的作用。如果人工智能想要打破屏幕最左上角的一個磚塊,它會理性地將平板放在最右邊的角落。
這意味著,當Vicarious改變游戲的規則時——添加新磚塊或提升平板——系統會得到補償。 它似乎抓住了一些關于 Breakout 本身的通用性理解。
顯然,這種人工智能在工程中存在權衡。 可以說,精心設計和仔細規劃,以精確找出將什么預先設定的邏輯輸入到系統中,是一個更艱苦的工作。 在設計一個新系統時,很難在速度和精度之間取得恰當的平衡。
喬治說,他尋找最小的數據集“放入模型,以便它能夠快速學習。”你需要的假設越少,機器做決策的效率就越高。
一旦你訓練了一個深度學習模型來識別貓,你就可以給它看一只它從未見過的俄羅斯藍貓,然后它就會立刻給出結論——這是一只貓。 在處理了數百萬張照片之后,它不僅知道是什么讓一只貓變成了貓,還知道識別一只貓的最快方法。
相比之下,Vicarious的人工智能速度較慢,因為隨著時間的推移,它會主動地做出邏輯推論。
當Vicarious的人工智能運行良好時,它可以從更少的數據中學習。喬治的團隊通過識別扭曲的字體形象,創造一種人工智能來突破神經網絡上“我不是機器人”的障礙。
就像Breakout系統一樣,他們預先給人工智能賦予了一些能力,比如幫助它識別字符的知識。隨著引導就位,他們只需要在人工智能學會以90.4 %的準確率破解驗證碼之前,在260張圖像上訓練人工智能。相比之下,神經網絡需要在超過230萬張圖像上訓練,才能破解驗證碼。
其他人,正在以不同的方式將常識般的結構構建到神經網絡中。例如,DeepMind的兩名研究人員最近創建了一個混合系統:部分是深度學習,部分是更傳統的技術。他們將這個系統稱為歸納邏輯編程。目標是創造出能夠進行數學推理的東西。
他們用兒童游戲“fizz-buzz”來訓練它,在這個游戲中,你從1開始向上數,如果一個數字可以被3整除,就說“fizz”,如果它可以被5整除,就說“buzz”。一個普通的神經網絡,只能處理它以前見過的數字;如果把它訓練到100分鐘,它就會知道99時該“fizz”,100時“buzz”。
但它不知道如何處理105。相比之下,DeepMind的混合深度思維系統似乎理解了這個規則,并在數字超過100時沒有出現任何問題。愛德華·格雷芬斯特(Edward Grefenstette)是開發這種混合系統的DeepMind程序員之一,他說,“你可以訓練出一些系統,這些系統會以一種深度學習網絡無法獨自完成的方式進行推理。”
深度學習的先驅、Facebook人工智能研究部門的現任負責人楊立昆(Yann?LeCun)對許多針對這個領域的批評表示贊同。他承認,它需要太多的訓練數據,不能推理,也不具備常識。
“在過去的四年里,我基本上在一遍又一遍地重復這句話,”他提醒我。但是他仍然堅信,進行正確的深入學習,可以獲取答案。他不同意喬姆斯基對人類智力的看法。他認為,人類大腦是通過互動而不是內在的規則來發展出推理能力的。
“如果你思考一下動物和嬰兒是如何學習的,在生命的最初幾分鐘、幾小時、幾天里,學很多東西都學得很快,以至于看起來像是天生的,”他指出。“但事實上,他們不需要硬編碼,因為它們可以很快學會一些東西。”
從這個角度來看,為了了解世界的物理規律,一個嬰兒只需要四處移動它的頭,對傳入的圖像進行數據處理,并得出結論,景深就是這么一回事。
盡管如此,楊立昆承認,目前還不清楚哪些途徑可以幫助深度學習走出低谷。有可能是“對抗性”神經網絡,一種相對新的技術,其中一個神經網絡試圖用虛假數據欺騙另一個神經網絡,迫使第二個神經網絡發展出極其微妙的圖像、聲音和其他輸入的內部表征。
它的優勢是沒有“數據缺乏”的問題。你不需要收集數百萬個數據來訓練神經網絡,因為它們是通過相互學習來學習的。(作者注:一種類似的方法正在被用來制作那些讓人深感不安的“深度偽造”(deepfake)視頻,在這些視頻中,有些人似乎在說或做一些他們沒有說或做的事情。)
我在Facebook位于紐約的人工智能實驗室的辦公室里遇見了楊立昆。馬克·扎克伯格(Mark Zuckerberg)在2013年招募了他,承諾實驗室的目標將是推動人工智能突破極限,而不僅僅是對Facebook的產品進行微小的調整。像學術實驗室一樣,楊立昆和他的研究人員可以將他們的研究成果發表出來,供其他人參閱。
楊立昆仍然保留了他的法國本土口音,他站在白板前,精力充沛地勾畫出可能推動深入學習進步的理論。對面的墻上掛著一套斯坦利·庫布里克(Stanley Kubrick)《2001:太空漫游》(2001: A Space Odyssey)中的華麗畫作——漂浮在太空深處的主宇宙飛船,一艘繞地球運行的輪式飛船。“哦,是的,”當我指出他們時,楊立昆說,他們重印了庫布里克為這部電影制作的藝術品。
借著周圍的圖片來討論類人人工智能,讓人感到莫名的不安,因為2001年的HAL 9000,一個類人人工智能,是一個高效的殺手。
這指向了一個更深層次的哲學問題,超越了人工智能發展方向的爭論:制造更聰明的人工智能是一個好主意嗎?Vicarious的系統破解了驗證碼,但驗證碼的意義在于防止機器人模仿人類。
一些人工智能研究者擔心,與人類交談并理解人類心理的能力可能會使惡人工智能變得極其危險。 牛津大學的尼克 · 博斯特龍(Nick Bostrom)敲響了創造"超級智能"(superintelligence)的警鐘。超級智能是一種自我改進并快速超越人類的人工智能,能夠在各個方面超越我們。 (他認為積聚控制力的一種方式是通過操縱人們——擁有"心智理論"對此會非常有用。)
埃隆·馬斯克(Elon Musk)對這種危險深信不疑,他資助了致力于安全人工智能理念的組織OpenAI。
這樣的未來不會讓埃齊奧尼晚上失眠。他不擔心人工智能會變成惡意的超級智能。“我們擔心會有什么東西會接管這個世界,”他嘲笑道,“那甚至不能自己決定再下一盤棋。”目前,還不清楚人工智能會如何發展出這些意愿,也不清楚這種意愿軟件中會是什么樣子。深度學習可以征服國際象棋,但它沒有天生的下棋意愿。
令他擔憂的是,是目前的人工智能非常無能。因此,雖然我們可能不會創造出具有自我保護智能的HAL,但他說,“致命武器+無能的人工智能很容易殺人。”這也是為什么埃齊奧尼如此堅決地要給人工智能灌輸一些常識的部分原因。他認為,最終,這將使人工智能更加安全;不應該大規模屠殺人類,也是一種常識。(艾倫研究所的一部分任務是使人工智能更加合理化,從而使其更加安全。)
埃齊奧尼指出,對人工智能的反烏托邦式的科幻愿景,其風險要小于短期的經濟轉移。如果人工智能在常識方面做得更好,它就能更快地完成那些目前僅僅是模式匹配深度學習所難以完成的工作:司機、出納員、經理、各行各業的分析師,甚至是記者。
但真正有理性的人工智能造成的破壞甚至可能會超出經濟范圍。 想象一下,如果散布虛假政治信息的機器人能夠運用常識,在 Twitter、 Facebook 或大量電話中顯得與人類毫無區別,那該會是什么樣子。
馬庫斯同意人工智能具備推理能力會有危險。但是,他說,這樣帶來的好處是巨大的。人工智能可以像人類一樣推理和感知,但卻能以計算機的速度運算,它可以徹底改變科學,以我們人類不可能的速度找出因果關系。
除了擁有大量的機器人知識之外,它可以像人類一樣進行心理實驗,可以遵循“if - then”鏈條,思考反事實。“例如,最終我們可能能夠治愈精神疾病,”馬庫斯補充道。“人工智能或許能夠理解這些復雜的蛋白質生物級聯,這些蛋白質參與到了大腦的構建中,會讓它們正常工作或不正常工作。”
坐在《2001:太空漫游》的照片下面,楊立昆自己提出了一個“異端”觀點。當然,讓人工智能更加人性化有助于人工智能給我們的世界提供幫助。但是直接復制人類的思維方式呢?沒有人清楚這是否有用。我們已經有了像人類一樣思考的人;也許智能機器的價值在于它們與我們完全不同。
“如果他們有我們沒有的能力,他們會更有用,”他告訴我。“那么他們將成為智力的放大器。所以在某種程度上,你希望他們擁有非人類形式的智力......你希望他們比人類更理性。”換句話說,也許讓人工智能有點人工是值得的。
-
人工智能
+關注
關注
1791文章
46859瀏覽量
237580 -
深度學習
+關注
關注
73文章
5492瀏覽量
120978
原文標題:深度長文:表面繁榮之下,人工智能的發展已陷入困境
文章出處:【微信號:WUKOOAI,微信公眾號:悟空智能科技】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論