精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

論文遭首屆ICLR拒稿、代碼被過(guò)度優(yōu)化,word2vec作者Tomas Mikolov分享背后的故事

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:機(jī)器之心 ? 2023-12-18 16:51 ? 次閱讀

除了表達(dá)自己獲得 NeurIPS 2023 時(shí)間檢驗(yàn)獎(jiǎng)的感想之外,Tomas Mikolo 還對(duì) NLP 和 ChatGPT 的現(xiàn)狀給出了自己的一些思考。

幾天前,NeurIPS 2023 公布了獲獎(jiǎng)?wù)撐模渲袝r(shí)間檢驗(yàn)獎(jiǎng)?lì)C給了十年前的 NeurIPS 論文「Distributed Representations of Words and Phrases and their Compositionality」。這項(xiàng)工作引入了開(kāi)創(chuàng)性的詞嵌入技術(shù) word2vec,展示了從大量非結(jié)構(gòu)化文本中學(xué)習(xí)的能力,推動(dòng)了自然語(yǔ)言處理新時(shí)代的到來(lái)。

這篇論文由當(dāng)時(shí)都還在谷歌的 Tomas Mikolov、Ilya Sutskever、Kai Chen、Greg Corrado、Jeffrey Dean 等人撰寫(xiě),被引量超過(guò) 4 萬(wàn)次。

6db585ca-9d7c-11ee-8b88-92fbcf53809c.png

不過(guò),Word2vec 首篇論文是 Tomas Mikolov 等同一作者的「Efficient Estimation of Word Representations in Vector Space」。這篇論文的引用量也已經(jīng)接近 4 萬(wàn)。

6db9b87a-9d7c-11ee-8b88-92fbcf53809c.png

論文地址:https://arxiv.org/abs/1301.3781

近日,Tomas Mikolov 分享了論文背后更多的故事,包括被首屆 ICLR 拒稿以及之后的進(jìn)展等。

6dc46cac-9d7c-11ee-8b88-92fbcf53809c.jpg

圖源:https://www.facebook.com/tomas.mikolov

以下為原貼內(nèi)容,我們做了不改變?cè)獾恼怼?/p>

我非常高興 word2vec 論文獲得了 NeurIPS 2023 時(shí)間檢驗(yàn)獎(jiǎng),這是我獲得的第一個(gè)最佳論文類(lèi)型的獎(jiǎng)項(xiàng)。實(shí)際上,word2vec 原始論文在 2013 年首屆 ICLR 會(huì)議被拒絕接收了(盡管接收率很高),這讓我想到審稿人預(yù)測(cè)論文的未來(lái)影響是多么困難。

這些年,我聽(tīng)到了很多關(guān)于 word2vec 的評(píng)論,正面的還有負(fù)面的,但至今沒(méi)有在網(wǎng)絡(luò)上認(rèn)真地發(fā)表過(guò)評(píng)論。我覺(jué)得研究界正在不斷地被一些研究人員的 PR 式宣傳淹沒(méi),他們通過(guò)這樣的方式獲得他人的論文引用和注意力。我不想成為其中的一部分,但 10 年后,分享一些關(guān)于論文背后的故事可能會(huì)很有趣。

我經(jīng)常聽(tīng)到的一個(gè)評(píng)論是,代碼很難理解,以至于有些人認(rèn)為是我故意地讓代碼不可讀。但我沒(méi)有那么邪惡,代碼最終被過(guò)度優(yōu)化了,因?yàn)槲业攘撕脦讉€(gè)月才被批準(zhǔn)發(fā)布它。我也試圖讓代碼更快更短。回想起來(lái),如果當(dāng)時(shí)團(tuán)隊(duì)中沒(méi)有 Greg Corrado 和 Jeff Dean,我懷疑自己是否會(huì)獲得批準(zhǔn)。我認(rèn)為 word2vec 可能是谷歌開(kāi)源的第一個(gè)廣為人知的 AI 項(xiàng)目。

在 word2vec 發(fā)布一年多后,斯坦福 NLP 小組的 GloVe 項(xiàng)目也引發(fā)了很大爭(zhēng)議。雖然該項(xiàng)目從我們的項(xiàng)目中復(fù)刻了很多技巧,但總感覺(jué) GloVe 倒倒退了一步:速度較慢,還需要更多內(nèi)存,生成的向量質(zhì)量比 word2vec 低。然而,GloVe 是基于在更多數(shù)據(jù)上預(yù)訓(xùn)練的詞向量發(fā)布的,因而很受歡迎。之后,我們?cè)?fastText 項(xiàng)目中修復(fù)了相關(guān)問(wèn)題,在使用相同數(shù)據(jù)進(jìn)行訓(xùn)練時(shí),word2vec 比 GloVe 好得多。

盡管 word2vec 是我被引用最多的論文,但我從未認(rèn)為它是我最有影響力的項(xiàng)目。實(shí)際上,word2vec 代碼最初只是我之前項(xiàng)目 RNNLM 的一個(gè)子集,我感覺(jué) RNNLM 很快就被人們遺忘了。但在我看來(lái),它應(yīng)該和 AlexNet 一樣具有革命性意義。

在這里,我列舉一些在 2010 年 RNNLM 中首次展示的想法:遞歸神經(jīng)網(wǎng)絡(luò)的可擴(kuò)展訓(xùn)練、首次通過(guò)神經(jīng)語(yǔ)言模型生成文本、動(dòng)態(tài)評(píng)估、字符和子詞級(jí)別的神經(jīng)語(yǔ)言建模、神經(jīng)語(yǔ)言模型自適應(yīng)(現(xiàn)在稱(chēng)為微調(diào))、首個(gè)公開(kāi)可用的 LM 基準(zhǔn)。

我發(fā)布了第一項(xiàng)研究,顯示當(dāng)一切正確完成時(shí),訓(xùn)練數(shù)據(jù)越多,神經(jīng)網(wǎng)絡(luò)就能比 n-gram 語(yǔ)言模型更勝一籌。這在今天聽(tīng)起來(lái)是顯而易見(jiàn)的,但在當(dāng)時(shí)這被廣泛認(rèn)為是不可能的,甚至大多數(shù)谷歌員工都認(rèn)為,數(shù)據(jù)越多,除了 n-gram 和平滑技術(shù)外,其他任何工作都是徒勞的。

我很幸運(yùn)能在 2012 年加入谷歌 Brain 團(tuán)隊(duì),那里有很多大規(guī)模神經(jīng)網(wǎng)絡(luò)的「信徒」,他們?cè)试S我參與 word2vec 項(xiàng)目,展示了它的潛力。但我不想給人留下到這里就足夠完美的印象。在 word2vec 之后,作為后續(xù)項(xiàng)目,我希望通過(guò)改進(jìn)谷歌翻譯來(lái)普及神經(jīng)語(yǔ)言模型。我確實(shí)與 Franz Och 和他的團(tuán)隊(duì)開(kāi)始了合作,在此期間我提出了幾種模型,這些模型可以補(bǔ)充基于短語(yǔ)的機(jī)器翻譯,甚至可以取代它。

其實(shí)在加入谷歌之前,我就提出了一個(gè)非常簡(jiǎn)單的想法,通過(guò)在句子對(duì)(比如法語(yǔ) - 英語(yǔ))上訓(xùn)練神經(jīng)語(yǔ)言模型來(lái)實(shí)現(xiàn)端到端的翻譯,然后在看到第一句話(huà)后使用生成模式生成翻譯。這對(duì)短句子效果很好,但在長(zhǎng)句子上就不那么奏效了。

我在谷歌 Brain 內(nèi)部多次討論過(guò)這個(gè)項(xiàng)目,主要是與 Quoc 和 Ilya,在我轉(zhuǎn)到 Facebook AI 后他們接手了這個(gè)項(xiàng)目。我感到非常意外的是,他們最終以「從序列到序列(sequence to sequence)」為名發(fā)表了我的想法,不僅沒(méi)有提到我是共同作者,而且在長(zhǎng)長(zhǎng)的致謝部分提及了谷歌 Brain 中幾乎所有的人,唯獨(dú)沒(méi)有我。那時(shí)是資金大量涌入人工智能領(lǐng)域的時(shí)期,每一個(gè)想法都價(jià)值連城。看到深度學(xué)習(xí)社區(qū)迅速變成某種權(quán)力的游戲,我感到很悲哀。

總之,多年來(lái)人們對(duì)語(yǔ)言模型的興趣增長(zhǎng)緩慢,但自從 ChatGPT 發(fā)布以來(lái),人們對(duì)它的興趣呈爆炸式增長(zhǎng),看到這么多人終于將人工智能和語(yǔ)言聯(lián)系在一起,真的很酷。我們還沒(méi)有到達(dá)那個(gè)階段,我個(gè)人認(rèn)為我們需要有新的發(fā)現(xiàn)來(lái)突破神經(jīng)模型的泛化極限。我們無(wú)疑生活在一個(gè)激動(dòng)人心的時(shí)代。但是,讓我們不要過(guò)分信任那些想要壟斷基于數(shù)十位甚至數(shù)百位科學(xué)家辛勤工作的技術(shù),同時(shí)聲稱(chēng)這一切都是為了人類(lèi)的利益的人。

不過(guò),Tomas Mikolov 的發(fā)言也讓人感嘆,他也要步 LSTM 之父 Jürgen Schmidhuber 的后塵嗎?

6dd0b426-9d7c-11ee-8b88-92fbcf53809c.png

圖源:https://twitter.com/agihippo/status/1736107652407849208

你們?cè)趺纯茨兀?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4748

    瀏覽量

    68356
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    487

    瀏覽量

    22012
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1548

    瀏覽量

    7495

原文標(biāo)題:論文遭首屆ICLR拒稿、代碼被過(guò)度優(yōu)化,word2vec作者Tomas Mikolov分享背后的故事

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何安全有效的刪代碼

    和建議,幫助你更安全有效地刪除代碼: 確定范圍 優(yōu)化總是鼓勵(lì)的,但方式和時(shí)間是同時(shí)需要被考慮進(jìn)去的因素 方式:這個(gè)方案是否好,有無(wú)漏洞?投入產(chǎn)出效益比如何? 時(shí)間:是否要在這個(gè)版本,哪個(gè)版本能使所有開(kāi)發(fā)投入時(shí)間最少
    的頭像 發(fā)表于 11-20 10:39 ?136次閱讀

    探索設(shè)計(jì)稿自動(dòng)生成Flutter代碼的技術(shù)方案

    作者:京東物流 冷先鋒 近年來(lái),隨著人工智能和大模型技術(shù)的發(fā)展,設(shè)計(jì)稿(UI視圖)自動(dòng)生成代碼的技術(shù)也在不斷進(jìn)步。本文將探討幾家知名企業(yè)在這一領(lǐng)域的探索和實(shí)踐,包括美團(tuán)、京東、微軟等,以及一些常見(jiàn)
    的頭像 發(fā)表于 11-08 10:09 ?814次閱讀
    探索設(shè)計(jì)<b class='flag-5'>稿</b>自動(dòng)生成Flutter<b class='flag-5'>代碼</b>的技術(shù)方案

    如何有效避免PCB腐蝕過(guò)度

    PCB(印刷電路板)的腐蝕過(guò)度是一個(gè)嚴(yán)重的問(wèn)題,可能導(dǎo)致電路板短路、電流容量降低、電阻增加,甚至影響設(shè)備的整體性能和壽命。為了避免這種情況,需要從多個(gè)方面入手,包括設(shè)計(jì)、材料選擇、制造過(guò)程、存儲(chǔ)環(huán)境以及維護(hù)和保養(yǎng)等。以下將詳細(xì)探討如何有效避免PCB腐蝕過(guò)度的策略。
    的頭像 發(fā)表于 10-09 18:02 ?432次閱讀

    Loran 和 LoRaWAN 的警示故事

    作者: Lisa Eitel 如果混淆了基于無(wú)線(xiàn)電的 LoRaWAN 和基于無(wú)線(xiàn)電的 Loran,后果不堪設(shè)想。這兩種技術(shù)都是關(guān)于連接和通信技術(shù)如何成為勝出,而其他技術(shù)如何無(wú)情拋棄的精彩故事。雖然
    的頭像 發(fā)表于 10-02 16:49 ?283次閱讀
    Loran 和 LoRaWAN 的警示<b class='flag-5'>故事</b>

    《TSMaster開(kāi)發(fā)從入門(mén)到精通》——?jiǎng)?chuàng)作者背后故事...

    背后故事由汽車(chē)行業(yè)暢銷(xiāo)書(shū)作者楊金升老師牽頭,同星智能研發(fā)團(tuán)隊(duì)和應(yīng)用支持團(tuán)隊(duì)全力參與的《TSMaster開(kāi)發(fā)從入門(mén)到精通》書(shū)籍已由清華大學(xué)出版社印付。此書(shū)一經(jīng)上架,就獲得汽車(chē)行業(yè)人士的一致認(rèn)可和好
    的頭像 發(fā)表于 09-02 08:01 ?282次閱讀
    《TSMaster開(kāi)發(fā)從入門(mén)到精通》——?jiǎng)?chuàng)<b class='flag-5'>作者</b><b class='flag-5'>背后</b>的<b class='flag-5'>故事</b>...

    谷歌DeepMind曝抄襲開(kāi)源成果,論文還中了頂流會(huì)議

    谷歌DeepMind一篇中了頂流新生代會(huì)議CoLM 2024的論文掛了,瓜主直指其抄襲了一年前就掛在arXiv上的一項(xiàng)研究。開(kāi)源的那種。
    的頭像 發(fā)表于 07-16 18:29 ?552次閱讀
    谷歌DeepMind<b class='flag-5'>被</b>曝抄襲開(kāi)源成果,<b class='flag-5'>論文</b>還中了頂流會(huì)議

    nlp自然語(yǔ)言處理模型有哪些

    : 詞嵌入(Word Embedding) 詞嵌入是將詞匯映射到高維空間的向量表示,使得語(yǔ)義相近的詞在向量空間中的距離更近。常見(jiàn)的詞嵌入模型有: Word2Vec:由Mikolov等人于2013年提出
    的頭像 發(fā)表于 07-05 09:57 ?619次閱讀

    數(shù)字示波器探頭過(guò)度補(bǔ)償對(duì)幅頻特性的影響

    的影響。 首先,讓我們簡(jiǎn)要了解一下數(shù)字示波器探頭的過(guò)度補(bǔ)償和幅頻特性的概念: 數(shù)字示波器探頭的過(guò)度補(bǔ)償: 數(shù)字示波器探頭通常需要進(jìn)行補(bǔ)償,以確保它們能夠準(zhǔn)確地傳輸測(cè)信號(hào)到示波器上,并保持頻率響應(yīng)的平坦度。
    的頭像 發(fā)表于 04-29 10:02 ?304次閱讀
    數(shù)字示波器探頭<b class='flag-5'>過(guò)度</b>補(bǔ)償對(duì)幅頻特性的影響

    CubeMx生成的代碼優(yōu)化等級(jí)調(diào)低不能運(yùn)行怎么解決?

    一個(gè)簡(jiǎn)單的測(cè)試程序,開(kāi)發(fā)環(huán)境: 芯片STM32F103+MDK 5.14+CubeMx 4.25生成一個(gè)通過(guò)串口2 printf函數(shù)打印hello world。 現(xiàn)象:直接生成的代碼添加串口
    發(fā)表于 04-25 06:23

    KEIL怎么禁止某個(gè)函數(shù)/某段代碼編譯器優(yōu)化

    有沒(méi)有大佬知道,KEIL怎么禁止某個(gè)函數(shù)/某段代碼 編譯器優(yōu)化
    發(fā)表于 04-10 08:17

    《合宙的第一個(gè)10年》故事連載06:成功有秘訣嗎?還真有

    上文《逐字稿是很笨很笨的工具》講到:有了逐字稿,80%的會(huì)議都不用召開(kāi)了。而我也卸任了救火隊(duì)員的崗位,如同開(kāi)啟了另一種人生。時(shí)間的腳步不緊不慢,故事繼續(xù)……1侯總的三次嘗試本章的故事
    的頭像 發(fā)表于 03-20 08:04 ?461次閱讀
    《合宙的第一個(gè)10年》<b class='flag-5'>故事</b>連載06:成功有秘訣嗎?還真有

    淺談代碼優(yōu)化過(guò)度設(shè)計(jì)

    本文記錄了作者從“代碼優(yōu)化”到“過(guò)度設(shè)計(jì)”的典型思考過(guò)程,這過(guò)程中涉及了很多Java的語(yǔ)法糖及設(shè)計(jì)模式的東西,很典型,能啟發(fā)思考,遂記錄下來(lái)。 有一天Review師妹的
    的頭像 發(fā)表于 01-19 10:05 ?519次閱讀
    淺談<b class='flag-5'>代碼</b><b class='flag-5'>優(yōu)化</b>與<b class='flag-5'>過(guò)度</b>設(shè)計(jì)

    示波器探頭過(guò)度補(bǔ)償會(huì)怎么樣?

    示波器探頭過(guò)度補(bǔ)償會(huì)怎么樣? 示波器探頭過(guò)度補(bǔ)償是指通過(guò)在示波器輸入部分和探頭之間添加補(bǔ)償電容,來(lái)修正由于探頭電纜長(zhǎng)度、電容和電感等因素引起的頻率響應(yīng)變化。過(guò)度補(bǔ)償是當(dāng)補(bǔ)償電容的數(shù)值大于
    的頭像 發(fā)表于 01-08 14:26 ?614次閱讀

    ICLR 2024高分投稿:用于一般時(shí)間序列分析的現(xiàn)代純卷積結(jié)構(gòu)

    這篇是 ICLR 上用 TCN 來(lái)做一般的時(shí)間序列分析的論文,在 Rebuttal 之后的分?jǐn)?shù)為 888,算得上是時(shí)間序列領(lǐng)域相關(guān)的論文中最高分那一檔了。本文提出了一個(gè) ModernTCN 的模型
    的頭像 發(fā)表于 12-18 16:05 ?828次閱讀
    <b class='flag-5'>ICLR</b> 2024高分投稿:用于一般時(shí)間序列分析的現(xiàn)代純卷積結(jié)構(gòu)

    Omniverse 資訊速遞 | 應(yīng)用案例、創(chuàng)作者故事、OpenUSD 最新視頻等你來(lái)解鎖!

    在本期 「Omniverse 資訊速遞」 中,Omniverse 用戶(hù)和開(kāi)發(fā)者將了解到: Omniverse 應(yīng)用案例與創(chuàng)作者故事 OpenUSD 最新視頻 Omniverse?應(yīng)用案例與創(chuàng)作者
    的頭像 發(fā)表于 12-04 20:20 ?546次閱讀
    Omniverse 資訊速遞 | 應(yīng)用案例、創(chuàng)<b class='flag-5'>作者</b><b class='flag-5'>故事</b>、OpenUSD 最新視頻等你來(lái)解鎖!