精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Prompt范式你們了解多少

深度學(xué)習(xí)自然語言處理 ? 來源:李rumor ? 作者:rumor ? 2021-09-10 10:22 ? 次閱讀

卷友們好,我是rumor。

之前我學(xué)習(xí)Prompt范式的源起PET后就鴿了很久,相信卷友們已經(jīng)把Prompt的論文都追完了,把我遠(yuǎn)遠(yuǎn)地落在了后面。周末我不甘被卷,奮起直追,連刷三篇paper,希望能趕上大家學(xué)習(xí)的步伐。

Prefix-tuning- Optimizing continuous prompts for generation

P-tuning-GPT Understands, Too

Prompt-tuning-The Power of Scale for Parameter-Efficient Prompt Tuning

自動化Prompt

Prompt范式的第一個階段,就是在輸入上加Prompt文本,再對輸出進行映射。但這種方式怎么想都不是很優(yōu)雅,無法避免人工的介入。即使有方法可以批量挖掘,但也有些復(fù)雜(有這個功夫能標(biāo)不少高質(zhì)量語料),而且模型畢竟是黑盒,對離散文本輸入的魯棒性很差:

323a6c1c-112f-11ec-8fb8-12bb97331649.jpg

怎么辦呢?離散的不行,那就連續(xù)的唄

用固定的token代替prompt,拼接上文本輸入,當(dāng)成特殊的embedding輸入,這樣在訓(xùn)練時也可以對prompt進行優(yōu)化,就減小了prompt挖掘、選擇的成本。

如何加入Prompt

前面的想法非常單純,但實際操作起來還是需要些技巧的。

Prefix-tuning

Prefix-tuning是做生成任務(wù),它根據(jù)不同的模型結(jié)構(gòu)定義了不同的Prompt拼接方式,在GPT類的自回歸模型上采用[PREFIX, x, y],在T5類的encoder-decoder模型上采用[PREFIX, x, PREFIX‘, y]:

3246ea32-112f-11ec-8fb8-12bb97331649.jpg

值得注意的還有三個改動:

把預(yù)訓(xùn)練大模型freeze住,因為大模型參數(shù)量大,精調(diào)起來效率低,畢竟prompt的出現(xiàn)就是要解決大模型少樣本的適配

作者發(fā)現(xiàn)直接優(yōu)化Prompt參數(shù)不太穩(wěn)定,加了個更大的MLP,訓(xùn)練完只保存MLP變換后的參數(shù)就行了

實驗證實只加到embedding上的效果不太好,因此作者在每層都加了prompt的參數(shù),改動較大

P-tuning

P-tuning是稍晚些的工作,主要針對NLU任務(wù)。對于BERT類雙向語言模型采用模版(P1, x, P2, [MASK], P3),對于單向語言模型采用(P1, x, P2, [MASK]):

3254d11a-112f-11ec-8fb8-12bb97331649.jpg

同時加了兩個改動:

考慮到預(yù)訓(xùn)練模型本身的embedding就比較離散了(隨機初始化+梯度傳回來小,最后只是小范圍優(yōu)化),同時prompt本身也是互相關(guān)聯(lián)的,所以作者先用LSTM對prompt進行編碼

在輸入上加入了anchor,比如對于RTE任務(wù),加上一個問號變成[PRE][prompt tokens][HYP]?[prompt tokens][MASK]后效果會更好

P-tuning的效果很好,之前的Prompt模型都是主打小樣本效果,而P-tuning終于在整個數(shù)據(jù)集上超越了精調(diào)的效果:

32612dde-112f-11ec-8fb8-12bb97331649.jpg

雖然P-tuning效果好,但實驗對比也有些問題,它沒有freeze大模型,而是一起精調(diào)的,相當(dāng)于引入了額外的輸入特征,而平時我們在輸入加個詞法句法信息也會有提升,所以不能完全肯定這個效果是prompt帶來的。同時隨著模型尺寸增大,精調(diào)也會更難。

Prompt-tuning

Prompt-tuning就更加有信服力一些,純憑Prompt撬動了大模型。

Prompt-tuning給每個任務(wù)定義了自己的Prompt,拼接到數(shù)據(jù)上作為輸入,同時freeze預(yù)訓(xùn)練模型進行訓(xùn)練,在沒有加額外層的情況下,可以看到隨著模型體積增大效果越來越好,最終追上了精調(diào)的效果:

326f312c-112f-11ec-8fb8-12bb97331649.jpg

同時,Prompt-tuning還提出了Prompt-ensembling,也就是在一個batch里同時訓(xùn)練同一個任務(wù)的不同prompt,這樣相當(dāng)于訓(xùn)練了不同「模型」,比模型集成的成本小多了。

其他Trick

除了怎么加Prompt之外,Prompt向量的初始化和長度也有所講究。

Prompt初始化

Prefix-tuning采用了任務(wù)相關(guān)的文字進行初始化,而Prompt-tuning發(fā)現(xiàn)在NLU任務(wù)上用label文本初始化效果更好。不過隨著模型尺寸的提升,這種gap也會最終消失。

3285c892-112f-11ec-8fb8-12bb97331649.jpg

Prompt長度

從Prompt-tuning的實驗可以看到,長度在10-20時的表現(xiàn)已經(jīng)不錯了,同時這個gap也會隨著模型尺寸的提升而減小。

329143c0-112f-11ec-8fb8-12bb97331649.jpg

總結(jié)

要說上次看PET時我對Prompt范式還是將信將疑,看完這幾篇之后就比較認(rèn)可了。尤其是Prompt-tuning的一系列實驗,確實證明了增加少量可調(diào)節(jié)參數(shù)可以很好地運用大模型,并且模型能力越強,所需要的prompt人工調(diào)參就越少。

這種參數(shù)化Prompt的方法除了避免「人工」智能外,還有一方面就是省去了Y的映射。因為在精調(diào)的過程中,模型的輸出就被拿捏死了,而且Prompt-tuning還用label初始化Prompt,更加讓模型知道要輸出啥。

Finally,終于追上了前沿,大家的鬼點子可真多啊。

來源:李rumor

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • PET
    PET
    +關(guān)注

    關(guān)注

    1

    文章

    43

    瀏覽量

    18684
  • MLPM
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    6799
  • prompt
    +關(guān)注

    關(guān)注

    0

    文章

    14

    瀏覽量

    2668

原文標(biāo)題:Prompt范式,真香

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    第四范式前三季度營收穩(wěn)健增長

    近日,第四范式發(fā)布了其2024年前9個月的核心業(yè)務(wù)進展報告。報告顯示,公司在這一期間取得了顯著的營收增長,累計收入達(dá)到人民幣32.18億元,同比增長了26.1%。同時,公司的毛利潤也實現(xiàn)了穩(wěn)步增長
    的頭像 發(fā)表于 11-20 10:57 ?197次閱讀

    東軟引領(lǐng)醫(yī)院智慧服務(wù)新范式

    近日,國際數(shù)據(jù)公司(IDC)發(fā)布Vendor Profile《東軟集團:引領(lǐng)“以健康為中心”的醫(yī)院智慧服務(wù)新范式》(Doc# CHC52670524,2024年11月)研究報告。
    的頭像 發(fā)表于 11-19 10:28 ?146次閱讀

    AI對話魔法 Prompt Engineering 探索指南

    作者:京東物流 李雪婷 一、什么是 Prompt Engineering? 想象一下,你在和一個智能助手聊天,你需要說出非常清晰和具體的要求,才能得到你想要的答案。Prompt
    的頭像 發(fā)表于 11-07 10:11 ?697次閱讀
    AI對話魔法 <b class='flag-5'>Prompt</b> Engineering 探索指南

    HarmonyOS NEXT應(yīng)用元服務(wù)開發(fā)控件狀態(tài)變化場景

    例如下圖,播放暫停按鈕對應(yīng)著兩種狀態(tài),在狀態(tài)切換時需要實時變化對應(yīng)的標(biāo)注信息。 import prompt from \'@system.prompt\' const
    發(fā)表于 10-28 15:13

    PPEC:零成本技術(shù)交底,賦能電源開發(fā)新范式

    。二、電源開發(fā)方案合作 PPEC電源開發(fā)模式:基于客戶需求進行樣機研發(fā),并交付全套開發(fā)生產(chǎn)技術(shù)資料,研發(fā)費用可抵PPEC芯片貨款,實現(xiàn)“0“成本技術(shù)交底,賦能電源開發(fā)新范式。▍客戶需求:客戶提出需求
    發(fā)表于 09-06 19:06

    MEMS諧振傳感器新范式:熱噪聲驅(qū)動的傳感器的可行性與動態(tài)檢測性能

    resonant sensors”的研究論文,提出了一種新的微納諧振傳感器范式——熱噪聲驅(qū)動的諧振傳感器, 構(gòu)建了該范式下傳感器信噪比、動態(tài)范圍與頻率穩(wěn)定性等性能指標(biāo)的理論框架,并實驗驗證了熱噪聲驅(qū)動的傳感器的可行性與動態(tài)檢測性能,為納米尺度下可在室溫和常壓下工作、更簡
    的頭像 發(fā)表于 06-29 10:57 ?1.1w次閱讀
    MEMS諧振傳感器新<b class='flag-5'>范式</b>:熱噪聲驅(qū)動的傳感器的可行性與動態(tài)檢測性能

    esp32 console顯示丟失第一個字符的原因?

    uart_config = ESP_CONSOLE_DEV_UART_CONFIG_DEFAULT(); /* Prompt to be printed before each line. * This can
    發(fā)表于 06-19 07:49

    以守為攻,零信任安全防護能力的新范式

    (Zero Trust Security)被提出,并逐漸成為提升網(wǎng)絡(luò)安全防護能力的新范式。本文主要探討攻擊路徑的演變、零信任體系在各個階段的防護作用,并探討零信任體系未來可能的發(fā)展方向。 攻擊路徑 攻擊路徑是指攻擊者利用一系列的步驟和方法,在
    的頭像 發(fā)表于 05-27 10:18 ?925次閱讀
    以守為攻,零信任安全防護能力的新<b class='flag-5'>范式</b>

    你們能用定時器能達(dá)到1us的精度嗎?

    你們能用定時器能達(dá)到1us的精度么
    發(fā)表于 05-16 07:19

    鴻蒙ArkUI:【從代碼到UI顯示的整體渲染流程】

    方舟開發(fā)框架(簡稱ArkUI)是鴻蒙開發(fā)的UI框架,提供如下兩種開發(fā)范式,我們 **只學(xué)聲明式開發(fā)范式**
    的頭像 發(fā)表于 05-13 16:06 ?804次閱讀
    鴻蒙ArkUI:【從代碼到UI顯示的整體渲染流程】

    STM8L151G6串口進不了中斷的原因?

    (); __enable_interrupt();//**************開總中斷 while (1) { /*Prompt_Tone(4); delay_ms(500); Prompt_Tone(0
    發(fā)表于 04-30 07:48

    150年創(chuàng)新不止 A.O.史密斯展現(xiàn)未來智能家居新范式

    好水,樂享健康生活"理念震撼亮相N4館。從智慧五恒系統(tǒng)到好風(fēng)好水健康廚房,從150年旗艦/經(jīng)典系列再到旗下年輕時尚品牌佳尼特……A.O.史密斯自主開發(fā)的"高端智慧互聯(lián)一站式好風(fēng)好水解決方案"奪人眼球、人氣爆棚,為在場觀眾清晰勾勒出了未來智能家居的新范式。 ? 智慧五恒
    的頭像 發(fā)表于 04-24 23:32 ?251次閱讀

    復(fù)盤與分析:Sora是如何成功的?

    從技術(shù)路線看,依舊遵從LLM范式“大力出奇跡”,通過patches向量化與transformer架構(gòu)結(jié)合,使得訓(xùn)練數(shù)據(jù)能夠使用大小、尺寸、分辨率不同的視頻,能夠讓模型學(xué)習(xí)到視頻的規(guī)律乃至世界的規(guī)律;使用GPT生成prompt,在訓(xùn)練和推理過程中解決了模態(tài)之間的對齊問題,大
    的頭像 發(fā)表于 02-25 16:44 ?546次閱讀
    復(fù)盤與分析:Sora是如何成功的?

    如何從訓(xùn)練集中生成候選prompt 三種生成候選prompt的方式

    這個“gradient”怎么得到的了呢,這是個啥玩意,怎么還有梯度?注意,注意。人家是帶引號的!比喻成梯度。這玩意有什么用呢。 文章指出給定一批error samples(當(dāng)前prompt無法
    的頭像 發(fā)表于 01-12 11:29 ?916次閱讀
    如何從訓(xùn)練集中生成候選<b class='flag-5'>prompt</b> 三種生成候選<b class='flag-5'>prompt</b>的方式

    一文帶你了解 DAC

    一文了解 DAC
    的頭像 發(fā)表于 12-07 15:10 ?8615次閱讀
    一文帶你<b class='flag-5'>了解</b> DAC