導讀:去年,一篇《AI寒冬將至》的文章在AI圈爆紅,作者觀點鮮明地指出AI領域出現泡沫,并預言AI寒冬將會到來,引起巨大爭議。
一年之后,這位作者又火力全開,針鋒相對。這次他將AI圈比作一個“馬戲團”,除了調侃吳恩達,吐槽OpenAI,Diss特斯拉,還通過各種隱喻、反諷評選出了他心中的2019年最大“小丑”的年度候選人之一:麻省理工學院的網紅研究員 Lex Fridman。
以下是正文。
介紹
自從我的文章《AI寒冬將至》發布并引起病毒式傳播之后大約一年,就像我承諾的那樣,我會定期更新AIG(通用人工智能)相關的文章。6個月前,我發布了其中一篇,現在是另一篇。最近有很多事情發生,但沒有什么能改變我的想法——人工智能的泡沫正在破滅。正如每一次泡沫破滅一樣,AI正處于井噴階段,那些最有可能一敗涂地的人正拿出他們最離譜的信心,上演一出讓更天真的人為他們掏腰包的最后把戲。冷靜一下,讓我們回顧過去一段時間發生了什么。
嚴肅的事情
首先讓我們回顧一下不是那么滑稽的事情。三位深度學習先驅——Geoffrey Hinton、Yoshua Bengio和 Yann Lecun 榮獲圖靈獎,這是計算機科學領域最負盛名的獎項。如果你認為我會以某種方式質疑這個獎項你就錯了,我認為深度學習拿下圖靈獎實至名歸。在我個人看來,Jurgen Schmidthuber 被遺漏是一個遺憾。不管你對 Schmidthuber 有何看法,我覺得他有時是會讓人感到尷尬,但他對深度學習領域的貢獻毋庸置疑。
而且,所有這些家伙都很安靜,Hinton 終于開了 Twitter 賬戶,但是他一向謙虛低調,并沒有發布任何我認為不真實或過于熱情的推文。Yann LeCun 偶爾推廣他在 FAIR 的研究,但也沒什么不尋常的。同樣,Bengio 在社交媒體上并不活躍。
我關注的其他人也很安靜,李飛飛去年秋天結束了在谷歌云的工作并回到斯坦福,而吳恩達則異常安靜:也許是因為他最近喜得千金——我真誠地祝賀他們夫妻兩個,兩個月前我自己也有了一個孩子,我知道這是多么快樂的事,但也認識到這個 baby 可能會打亂他每周 90 個小時的工作安排,從而導致 AI 奇點到來的延遲。
過去幾個月,人工智能領域最熱鬧的一系列活動圍繞 OpenAI 和特斯拉展開。
滑稽的事情
OpenAI——一個非營利性組織,其使命是解決通用人工智能(AGI)問題并確保所有發現對公眾開放,而不是由一些作惡的公司從中漁利。OpenAI 在 2 月份發布了文本生成模型 GPT-2。令所有人驚訝的是,他們沒有發布訓練權重,理由是擔心可能發生誤用或在研究人員和 AI 群體中引起較大爭議。我不確定這些人為何聲稱“開放”,卻未發布模型的關鍵部分(順便說一下,如果他們不發布完整的模型,那我也可以懷疑 GPT-2 是使用亞馬遜的眾包平臺Mechanical Turk來實現的。)即使 GPT-2 生成了看似合理的文本,我也不確定如何濫用它來生成虛假新聞或垃圾郵件,或者真正將其用于娛樂之外的任何事情。
不管怎么說,最近 OpenAI顯然已經不再開放了,開始打起了盈利的主意。是的,這個被認為是十九世紀的普羅米修斯的組織,一群公正無私的研究員努力為整個人類點燃 AI 之火的修道院,從此變得不再開放,而是為了獲利。但是,他們仍然堅持宏偉的使命,因為其利潤將被限制——每個投資者最多只能獲得成本 100 倍的回報。我能想到這背后的唯一原因,就是他們不能再作為非營利組織籌集資金了。
讓我們暫時放下這樣一個事實,即到目前為止,該公司的利潤為零,并且組織形式和任何能想象到的創業公司不一樣(而是像一個研究實驗室)。這也讓我們得到了一個令人驚喜的采訪,在這篇文章中,Sam Altman——一個和灣區聯系緊密的人,他曾經營過 Y-combinator,現任(不再開放的)OpenAI 的首席執行官,他為我們貢獻了這個炒作周期的一些金句。以下是其中的精華部分:
例如被問到,OpenAI 計劃如何賺錢(我們想知道它是否可能授權其部分工作的許可),Altman 回答道,“老實說我們不知道。我們從未有任何收入。目前也沒有盈利計劃,不知道有朝一日會如何產生收入。“
Altman 繼續說道,“我們向投資者做出了一個軟性承諾(soft promise),'一旦我們建立了一個通用的智能系統,我們會基于它尋找獲得投資回報的方法。”當人群一陣爆笑時,Altman 指出這聽起來像是影視劇《硅谷》的一幕,但他補充說,“你可以笑。沒關系。但它確實是我真正相信的。“
我不知道要說什么。我確定找出如何產生收入的方法應該比弄清楚 AGI 要容易得多,但不是從炒作泡沫的扭曲邏輯中得出。簡而言之,這個命題是:我相信我們可以建立 AGI,雖然我真的沒有任何證據,但我真的堅信,如果你給我們數十億美元,我們就可以做到。
我也希望我能相信這一點,但不幸的是這并不能說服我自己,我認為 OpenAI 已經變成了一個徹頭徹尾的騙局。OpenAI一些員工的推文進一步證實了這一判斷:
Wojciech Zaremba,一個曾經在紐約大學時非常理性的人(我在2015年與通過幾封電子郵件),現在已成為“信徒”。上面的這條推文漏洞百出,很難想象一個對數據和現實有理解,有信仰的科學家竟會說出這樣的話。但這就是這些看似聰明的人,他們相信灣區的回音室效應( 回聲室效應:在一個相對封閉的環境上,一些意見相近的聲音不斷重復,并以夸張或其他扭曲形式重復,令處于相對封閉環境中的大多數人認為這些扭曲的故事就是事實的全部),而且成千上萬的新人會盲目追隨。
具體來說:上述方法有數百萬種(我甚至不確定“方法”的含義)可能并不奏效(而且有大量證據表明確實不起作用)。一個潛在的原因:即使他們擁有所有這些數據,也很可能存在偏見,因為人們刻意避免了邊緣情況。另一個可能的原因是:邊緣情況是一個非常稀疏的集合,在統計上被“非邊緣情況”所淹沒。深度學習同時簡單地優化所有數據點上的總損失,可以完全清洗掉特殊情況,并且每個特殊情況可能需要自己的數據進行重新平衡/損失函數調整。此外,另一個原因是,即使在路上有 50 萬輛特斯拉,收集了所有的駕駛數據(實際上并沒有),如果邊緣情況是長尾且不穩定的,它不能包含所有邊緣情況。(這類似于你可以在歷史股票市場數據上訓練你想要的所有模型,但當你用真錢賺錢時,你可能比想象的更快破產)。
另一個原因是道路上是人類司機的邊緣情況不同于道路上是自動駕駛車的邊緣情況,并且確實在不斷變化。此外,也許最不明顯的原因是他們使用的特定深度網絡可能不具備表達它需要表達內容的能力(即使假設其擁有訓練需要的所有數據)。感知器自80年代就已非常有名并作為通用的近似器,但它采用了非常特殊的微調架構 ConvNet,以及一系列技巧來改善收斂性,并用足夠數量的可訓練參數來解決 ImageNet 問題。即使今天也沒有通用的全連接多層感知器能夠學習所有任務。即使擁有大量數據,也需要進行大量的調整和元參數搜索才能解決問題。
最后,即使原則上這一切都是可行的,但目前尚不清楚這是否可以在特斯拉內置計算機上實現。 其他廠商的自動駕駛車輛都使用了激光雷達,雖然價格昂貴,但它解決了特斯拉試圖通過 AI 解決的大部分問題(例如避障和可穿越性),成熟的游戲 GPU 都可以提供比特斯拉最新硬件更強的計算能力。然而,根據我們的數據,很明顯沒有產品接近完全自動駕駛。所以,這就是為什么特斯拉的自動駕駛方法不一定有效的原因,這是任何一個稱職的的數據科學家即使在喝過一瓶伏特加之后都能背出來的原因。
說到特斯拉的自動駕駛,現在有一些大膽的宣言,例如特斯拉將在 2020 年將擁有 100 萬輛自動駕駛出租車,但我認為這種可能性為零。我已經表達了對 Elon Musk 以及他瘋狂的承諾的看法,我不想在這篇文章中浪費時間(坦白說我不想引起特斯拉粉絲的關注,我要讓他們活在自己的幻想世界)。
但是,我們不妨從另一個角度來看特斯拉,因為今年早些時候有了一些有趣的進展:麻省理工學院的研究科學家 Lex Fridman 發表了一項研究,他聲稱(與幾位合著者一起)與大量描述人機交互的文獻相反,使用 autopilot 的司機依然能保持保持警惕和專心。該研究本身存在很大爭議,如Anima Anandkumar(英偉達研究主任)試圖勸他將這項研究在任何華而不實的炒作之前提交給同行評審,為此她在 Twitter 上被 Lex 封殺。
當這項研究成為頭條新聞時(讓我們強調一下:一項未被評審的研究),Fridman(一個基本公開的特斯拉粉絲)發推特說,特斯拉和馬斯克都與這項研究無關(這對特斯拉是有利的),隨后刪除了那些推特,然后發了一些關于誠信的東西(也許是因為他理所當然地覺得有人在質疑),而兩周后,他被邀請和馬斯克一起上播客節目,然后他自己被邀請去見Joe Rogan。他利用這兩個場合無恥地推銷自己,這也是他一直在做的事情。
我不會在這里詳細介紹論文本身的細節,有興趣的讀者可以看看 Duke Cummings 的一個很棒的播客采訪,這位杜克大學的人機交互教授詳細介紹了這篇論文的缺陷。
基于上述 AI 領域的發展,我正式將 Lex Fridman 列為 2019 年人工智能領域最大的“小丑”候選人。盡管現在仍是年中,但我認為他獲勝的幾率非常大。
回到特斯拉,NTSB 發布了佛羅里達特斯拉撞人致死案的初步報告,表明(毫無意外)autopilot 確實是引起這一事件的原因。這至少是第四次有記錄在案的 autopilot 致死事件。雖然這在總體上看來不算很多,但應該注意的是,凱迪拉克的一個類似的 ADAS 系統——超級巡航(Super Cruise)在寫這篇文章時的報告結果為零傷亡(甚至沒有看起來是系統故障引起的事故)。微妙的區別在于 Super Cruise 有一個駕駛員監控系統,可以確保駕駛員保持警惕,而特斯拉則沒有。
此后,又有兩家 AI /機器人公司 Jibo 和 Anki 倒閉了。Jibo 對我個人而言是一個特別有趣的案例,因為當我在看到他們的眾籌平臺活動時,我就知道它的結局。該項目由麻省理工學院的研究員 Cynthia Braezeal 創立,該項目啟動之初便獲得了大家的信任,但他們當時承諾的功能甚至現在也根本不可能實現,盡管如此,這家公司依然獲得了約 7200 萬美元的資金。
麻省理工學院到底是怎么了?先是 Cynthia Braezeal,他聲稱是機器人技術專家,但卻沒有意識到他給 Jibo 的承諾顯然并不現實,之后是 Lex Fridman 把自己變成了一個小丑(雖然麻省理工學院表明,他只是一名聘請的研究科學家,而不是麻省理工學院的畢業生)。
除此之外,據報道,安大略省政府決定削減對人工智能的支出,其中包括 Hinton 的 Vector Institute,這引起了人工智能界的極大憤怒。這真的只是即將到來的AI寒冬的第一次嚴重凍傷,我建議所有為此憤怒的人應該多找些御寒的衣服,或者換份工作。
總結
這就是 2019 年中人工智能所處的狀態。正如我所料,這一領域變得越來越荒謬,基本上是一個小丑秀。我想,我們很快就會知道,就像我一開始就在博客里說的一樣,所有人工智能泡沫確實只是一個笑話。
-
人機交互
+關注
關注
12文章
1200瀏覽量
55320 -
人工智能
+關注
關注
1791文章
46858瀏覽量
237552 -
深度學習
+關注
關注
73文章
5492瀏覽量
120977
原文標題:調侃吳恩達,Diss特斯拉,吐槽OpenAI…《AI寒冬將至》作者點評2019“AI小丑秀”
文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論