精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于“NLP中的遷移學(xué)習(xí)”的教程

DPVg_AI_era ? 來(lái)源:lq ? 2019-06-23 10:11 ? 次閱讀

近日,在美國(guó)明尼蘇達(dá)州明尼阿波利斯的NAACL2019上,Sebastian Ruder, Matthew Peters, Swabha Swayamdipta和Thomas Wolf分享了一個(gè)長(zhǎng)達(dá)238頁(yè)P(yáng)PT關(guān)于“NLP中的遷移學(xué)習(xí)”的教程,今天拿來(lái)和大家分享。

經(jīng)典的監(jiān)督機(jī)器學(xué)習(xí)范式是基于對(duì)使用單個(gè)數(shù)據(jù)集的任務(wù)的單個(gè)預(yù)測(cè)模型的孤立學(xué)習(xí)。這種方法需要大量的訓(xùn)練示例,并且對(duì)于定義明確、范圍狹窄的任務(wù)效果最好。遷移學(xué)習(xí)指的是一組方法,這些方法通過利用來(lái)自其他域或任務(wù)的數(shù)據(jù)來(lái)訓(xùn)練具有更好泛化特性的模型來(lái)擴(kuò)展此方法。

近兩年來(lái),自然語(yǔ)言處理(NLP)領(lǐng)域出現(xiàn)了幾種轉(zhuǎn)移學(xué)習(xí)方法和體系結(jié)構(gòu),這些方法和體系結(jié)構(gòu)大大提高了NLP任務(wù)的先進(jìn)性。

這些改進(jìn),加上這些方法的廣泛可用性和易集成性,使人們想起了導(dǎo)致計(jì)算機(jī)視覺中預(yù)訓(xùn)練字嵌入和ImageNet預(yù)訓(xùn)練成功的因素,并表明這些方法很可能成為NLP中的一種常用工具以及一個(gè)重要的研究方向。

我們將概述NLP中的現(xiàn)代遷移學(xué)習(xí)方法,如何對(duì)模型進(jìn)行預(yù)培訓(xùn),它們所學(xué)習(xí)的表示捕獲哪些信息,并回顧有關(guān)如何在下游NLP任務(wù)中集成和適應(yīng)這些模型的示例和案例研究。

什么是遷移學(xué)習(xí)?

(a)傳統(tǒng)機(jī)器學(xué)習(xí)的學(xué)習(xí)過程:

任務(wù)1:學(xué)習(xí)系統(tǒng)

任務(wù)2:學(xué)習(xí)系統(tǒng)

任務(wù)3:學(xué)習(xí)系統(tǒng)

(b)遷移學(xué)習(xí)的學(xué)習(xí)過程:

源任務(wù):知識(shí)

目標(biāo)任務(wù):學(xué)習(xí)系統(tǒng)

為什么是NLP遷移學(xué)習(xí)?

許多NLP任務(wù)都有共同的語(yǔ)言知識(shí)(例如語(yǔ)言表示、結(jié)構(gòu)相似性)

任務(wù)可以互相通知,例如語(yǔ)法和語(yǔ)義

注釋數(shù)據(jù)很少,盡可能多地利用監(jiān)督

從經(jīng)驗(yàn)上講,遷移學(xué)習(xí)已經(jīng)在SOTA形成了許多被監(jiān)督的NLP任務(wù)(例如分類、信息提取、問答等)

為什么是NLP遷移學(xué)習(xí)?(憑經(jīng)驗(yàn))

在命名實(shí)體識(shí)別(NER)CONLL-2003(英語(yǔ))上隨著時(shí)間推移的表現(xiàn)

NLP中遷移學(xué)習(xí)的類型

本教程到底講什么?

本教程講的是什么,不講的是什么:

目標(biāo):提供NLP中遷移方法的廣泛概述,重點(diǎn)介紹截至目前(2019年年中)最成功的經(jīng)驗(yàn)方法。

提供實(shí)用的、實(shí)際操作的建議→在教程結(jié)束時(shí),每個(gè)人都有能力將最新進(jìn)展應(yīng)用到文本分類任務(wù)中。

不講的是什么:全面的(不可能在一個(gè)教程中涵蓋所有相關(guān)的論文?。?/p>

(Bender Rule: 本教程主要是針對(duì)用英語(yǔ)完成的工作,其他語(yǔ)言的可擴(kuò)展性取決于監(jiān)督是否可用。)

框架:

1、介紹

2、預(yù)訓(xùn)練

3、代表中有什么?

4、適應(yīng)

5、下游

6、開放問題

順序遷移學(xué)習(xí)

了解一個(gè)任務(wù)/數(shù)據(jù)集,然后遷移到另一個(gè)任務(wù)/數(shù)據(jù)集

預(yù)訓(xùn)練:

word2vec

GloVe

skip-thought

InferSent

ELMo

ULMFiT

GPT

BERT

適應(yīng):

分類

序列標(biāo)記

問答

預(yù)培訓(xùn)任務(wù)和數(shù)據(jù)集

未標(biāo)記數(shù)據(jù)和自我監(jiān)督:

易于收集的大型語(yǔ)料庫(kù):維基百科、新聞、網(wǎng)絡(luò)爬蟲、社交媒體等。

訓(xùn)練利用了分布假設(shè):“你應(yīng)該知道它所保存的一個(gè)詞”(Firth,1957),通常形式化為訓(xùn)練某種語(yǔ)言模型的變體。

注重高效算法利用豐富的數(shù)據(jù)

監(jiān)督預(yù)培訓(xùn):

在視覺上非常常見,由于缺乏大的監(jiān)控?cái)?shù)據(jù)集,在NLP中較少見。

機(jī)器翻譯

句子表達(dá)的NLI

從一個(gè)問答數(shù)據(jù)集到另一個(gè)問答數(shù)據(jù)集的任務(wù)特定傳輸

目標(biāo)任務(wù)和數(shù)據(jù)集

目標(biāo)任務(wù)通常是受監(jiān)控的,跨越一系列常見的NLP任務(wù):

句子或文檔分類(如情感)

句子對(duì)分類(如NLI、釋義)

字級(jí)(例如序列標(biāo)記、提取性問答)

結(jié)構(gòu)化預(yù)測(cè)(如解析)

生成(例如對(duì)話、總結(jié))

具體示例——詞向量

單詞嵌入方法(例如word2vec)每個(gè)單詞學(xué)習(xí)一個(gè)向量

主題:從單詞到語(yǔ)境中的單詞

主題:從單詞到語(yǔ)境中的單詞

詞向量 句子/doc向量 語(yǔ)境中詞向量

主題:LM預(yù)訓(xùn)練

許多成功的預(yù)培訓(xùn)方法都是基于語(yǔ)言建模的

非正式地,LM學(xué)習(xí)p(文本)或p(文本/其他文本)

不需要人工注釋

許多語(yǔ)言有足夠的文本來(lái)學(xué)習(xí)大容量模型

多才多藝,能學(xué)習(xí)句子和詞的表達(dá),具有多種客觀功能

主題:由淺入深

1層 24層

主題:預(yù)培訓(xùn)與目標(biāo)任務(wù)

預(yù)培訓(xùn)和目標(biāo)任務(wù)的選擇是耦合

句子/文檔表示法對(duì)單詞級(jí)預(yù)測(cè)無(wú)效

詞向量可以跨上下文匯集,但通常比其他方法更好。

在語(yǔ)境詞向量中,雙向語(yǔ)境很重要

一般來(lái)說:

類似的預(yù)培訓(xùn)和目標(biāo)任務(wù)→最佳結(jié)果

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    487

    瀏覽量

    22011
  • 遷移學(xué)習(xí)
    +關(guān)注

    關(guān)注

    0

    文章

    74

    瀏覽量

    5557

原文標(biāo)題:【干貨】NLP中的遷移學(xué)習(xí)教程來(lái)啦!(238頁(yè)P(yáng)PT下載)

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于稀疏編碼的遷移學(xué)習(xí)及其在行人檢測(cè)的應(yīng)用

    一定進(jìn)展,但大都需要大量的訓(xùn)練數(shù)據(jù).針對(duì)這一問題,提出了一種基于遷移學(xué)習(xí)的半監(jiān)督行人分類方法:首先基于稀疏編碼,從任意的未標(biāo)記樣本,學(xué)習(xí)到一個(gè)緊湊、有效的特征表示;然后通過
    發(fā)表于 04-24 09:48

    遷移學(xué)習(xí)

    PDA、Source-Free DA上的應(yīng)用。六、遷移學(xué)習(xí)前沿應(yīng)用遷移學(xué)習(xí)在語(yǔ)義分割的應(yīng)用遷移
    發(fā)表于 04-21 15:15

    專欄 | 深度學(xué)習(xí)NLP的運(yùn)用?從分詞、詞性到機(jī)器翻譯、對(duì)話系統(tǒng)

    從分詞、詞性等基礎(chǔ)模塊,到機(jī)器翻譯、知識(shí)問答等領(lǐng)域,本文列舉并分析一些深度學(xué)習(xí)NLP 領(lǐng)域的具體運(yùn)用,希望對(duì)大家研究深度學(xué)習(xí)NLP 有所幫助。
    的頭像 發(fā)表于 08-18 17:06 ?7530次閱讀
    專欄 | 深度<b class='flag-5'>學(xué)習(xí)</b>在<b class='flag-5'>NLP</b><b class='flag-5'>中</b>的運(yùn)用?從分詞、詞性到機(jī)器翻譯、對(duì)話系統(tǒng)

    對(duì)2017年NLP領(lǐng)域中深度學(xué)習(xí)技術(shù)應(yīng)用的總結(jié)

    本文作者Javier Couto是tryo labs公司的一名研發(fā)科學(xué)家,專注于NLP技術(shù)。這篇文章是他對(duì)2017年NLP領(lǐng)域中深度學(xué)習(xí)技術(shù)應(yīng)用的總結(jié),也許并不全面,但都是他認(rèn)為有價(jià)值、有意義的成果。Couto表示,2017年是
    的頭像 發(fā)表于 12-28 10:02 ?5590次閱讀
    對(duì)2017年<b class='flag-5'>NLP</b>領(lǐng)域中深度<b class='flag-5'>學(xué)習(xí)</b>技術(shù)應(yīng)用的總結(jié)

    NLP的介紹和如何利用機(jī)器學(xué)習(xí)進(jìn)行NLP以及三種NLP技術(shù)的詳細(xì)介紹

    本文用簡(jiǎn)潔易懂的語(yǔ)言,講述了自然語(yǔ)言處理(NLP)的前世今生。從什么是NLP到為什么要學(xué)習(xí)NLP,再到如何利用機(jī)器學(xué)習(xí)進(jìn)行
    的頭像 發(fā)表于 06-10 10:26 ?7.7w次閱讀
    <b class='flag-5'>NLP</b>的介紹和如何利用機(jī)器<b class='flag-5'>學(xué)習(xí)</b>進(jìn)行<b class='flag-5'>NLP</b>以及三種<b class='flag-5'>NLP</b>技術(shù)的詳細(xì)介紹

    面向NLP任務(wù)的遷移學(xué)習(xí)新模型ULMFit

    除了能夠更快地進(jìn)行訓(xùn)練之外,遷移學(xué)習(xí)也是特別有趣的,僅在最后一層進(jìn)行訓(xùn)練,讓我們可以僅僅使用較少的標(biāo)記數(shù)據(jù),而對(duì)整個(gè)模型進(jìn)行端對(duì)端訓(xùn)練則需要龐大的數(shù)據(jù)集。標(biāo)記數(shù)據(jù)的成本很高,在無(wú)需大型數(shù)據(jù)集的情況下建立高質(zhì)量的模型是很可取的方法。
    的頭像 發(fā)表于 08-22 08:11 ?5607次閱讀

    NLP的深度學(xué)習(xí)技術(shù)概述

    該項(xiàng)目是對(duì)基于深度學(xué)習(xí)的自然語(yǔ)言處理(NLP)的概述,包括用來(lái)解決不同 NLP 任務(wù)和應(yīng)用的深度學(xué)習(xí)模型(如循環(huán)神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)和強(qiáng)化學(xué)習(xí)
    的頭像 發(fā)表于 03-01 09:13 ?4769次閱讀
    <b class='flag-5'>NLP</b><b class='flag-5'>中</b>的深度<b class='flag-5'>學(xué)習(xí)</b>技術(shù)概述

    遷移學(xué)習(xí)與模型預(yù)訓(xùn)練:何去何從

    把我們當(dāng)前要處理的NLP任務(wù)叫做T(T稱為目標(biāo)任務(wù)),遷移學(xué)習(xí)技術(shù)做的事是利用另一個(gè)任務(wù)S(S稱為源任務(wù))來(lái)提升任務(wù)T的效果,也即把S的信息遷移到T
    的頭像 發(fā)表于 07-18 11:29 ?7837次閱讀
    <b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>與模型預(yù)訓(xùn)練:何去何從

    NLP遷移學(xué)習(xí)面臨的問題和解決

    自然語(yǔ)言處理(NLP)最近取得了巨大的進(jìn)步,每隔幾天就會(huì)發(fā)布最新的結(jié)果。排行榜瘋狂是指最常見的NLP基準(zhǔn),如GLUE和SUPERGLUE,它們的得分越來(lái)越接近人類的水平。這些結(jié)果大多是通過超大(數(shù)十億個(gè)參數(shù))模型從大規(guī)模數(shù)據(jù)集中遷移
    的頭像 發(fā)表于 05-04 12:03 ?3115次閱讀
    <b class='flag-5'>NLP</b><b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>面臨的問題和解決

    NLP 2019 Highlights 給NLP從業(yè)者的一個(gè)參考

    自然語(yǔ)言處理專家elvis在medium博客上發(fā)表了關(guān)于NLP在2019年的亮點(diǎn)總結(jié)。對(duì)于自然語(yǔ)言處理(NLP)領(lǐng)域而言,2019年是令人印象深刻的一年。在這篇博客文章,我想重點(diǎn)介紹
    的頭像 發(fā)表于 09-25 16:56 ?1694次閱讀

    遷移學(xué)習(xí)的意圖識(shí)別在口語(yǔ)理解的應(yīng)用

    獲得大量數(shù)據(jù),因此為搭建新領(lǐng)域的深度學(xué)習(xí)模型提出了挑戰(zhàn)。遷移學(xué)習(xí)是深度學(xué)習(xí)的一種特殊應(yīng)用,在遷移學(xué)習(xí)
    發(fā)表于 04-12 11:18 ?4次下載
    <b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>的意圖識(shí)別在口語(yǔ)理解<b class='flag-5'>中</b>的應(yīng)用

    遷移學(xué)習(xí)Finetune的四種類型招式

    遷移學(xué)習(xí)方法。例如NLP的預(yù)訓(xùn)練Bert模型,通過在下游任務(wù)上Finetune即可取得比直接使用下游數(shù)據(jù)任務(wù)從零訓(xùn)練的效果要好得多。
    的頭像 發(fā)表于 04-02 17:35 ?3119次閱讀

    NLP遷移學(xué)習(xí):利用預(yù)訓(xùn)練模型進(jìn)行文本分類

    遷移學(xué)習(xí)徹底改變了自然語(yǔ)言處理(NLP)領(lǐng)域,允許從業(yè)者利用預(yù)先訓(xùn)練的模型來(lái)完成自己的任務(wù),從而大大減少了訓(xùn)練時(shí)間和計(jì)算資源。在本文中,我們將討論遷移
    發(fā)表于 06-14 09:30 ?431次閱讀

    一文詳解遷移學(xué)習(xí)

    遷移學(xué)習(xí)需要將預(yù)訓(xùn)練好的模型適應(yīng)新的下游任務(wù)。然而,作者觀察到,當(dāng)前的遷移學(xué)習(xí)方法通常無(wú)法關(guān)注與任務(wù)相關(guān)的特征。在這項(xiàng)工作,作者探索了重新
    的頭像 發(fā)表于 08-11 16:56 ?6241次閱讀
    一文詳解<b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>

    深度學(xué)習(xí)nlp的區(qū)別在哪

    深度學(xué)習(xí)和自然語(yǔ)言處理(NLP)是計(jì)算機(jī)科學(xué)領(lǐng)域中兩個(gè)非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習(xí)NLP的區(qū)別。 深度學(xué)習(xí)
    的頭像 發(fā)表于 07-05 09:47 ?813次閱讀