精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

萬能的prompt還能做可控文本生成

深度學習自然語言處理 ? 來源:夕小瑤的賣萌屋 ? 作者:ZenMoore ? 2022-03-22 10:54 ? 次閱讀

可控文本生成,旨在讓語言模型的輸出帶有我們想要的某種屬性。比如情感、主題、三元組等。一般我們習慣采用 CTRL[1] 或者 PPLM[2] 等方式。但是,CTRL 是對整個語言模型進行 Finetuning, PPLM 因為需要在生成的過程中迭代更新 hidden activations,所以推理速度非常慢。

隨著 Prompting 技術的大火,我們一直在思考,Prompt 究竟能夠帶來什么?我們都說,Prompt 本質上是一種激發語言模型中知識的手段。因此,它應該不僅僅局限于數據集或者說任務的層面,激發模型對于某個任務的“知識”,還應該擴展到范圍更廣的控制屬性層面,激發模型對于某種輸出屬性的 sense !

于是,我們不妨把視角從 task scaling 挪開,更多地關注一下 Prompt 對于可控性的 buff 加成。

今天的這篇文章來自 UCSB 和微軟,提出通過對比學習的方法找尋到了這個 buff 一般的 Prompt,能夠“調教”我們的語言模型進行可控的生成。

論文標題:
Controllable Natural Language Generation with Contrastive Prefixes

論文作者:
Jing Qian, Li Dong, Yelong Shen, Furu Wei, Weizhu Chen

論文鏈接:
https://arxiv.org/abs/2202.13257

模型方法

首先明確一個概念:Prefix。讀者可以簡單看一下 Prefix-Tuning[3] 的方法圖,就大概知道:Prefix 相當于一種控制指令,加在輸入的最前面,以控制生成文本的屬性。

cf491344-a8da-11ec-952b-dac502259ad0.png

本文提出了兩種方法,分別是監督方法和無監督方法。

下面的方法介紹以 Sentiment Control 為例(即生成給定帶有情感的文本)。該任務要訓練的,正是 positive 和 negative 的兩種情感類別所對應的 prefix.

監督方法

cf68b528-a8da-11ec-952b-dac502259ad0.png

整個訓練過程和 Prefix-Tuning[3] 相似,LM 的參數是凍結的,只調整 Prefix 相關聯的參數。在訓練的時候,除了LM loss 之外,新增一個判別損失:

其中, 代表生成文本, 代表控制信號的類別(positive 或 negative)。

無監督方法

在監督方法中,控制信號是已知的。實際場景中還會常常出現控制信號未知的情況,因此需要通過變分的無監督方法找到這個“虛擬的類別信號“并使用 latent variable 表征,即 VQ-VAE[4] 的思想。

cf9bff00-a8da-11ec-952b-dac502259ad0.png

如圖,需要先通過一個 encoder 預測相應輸入對應的 latent variable 作為 prefix index(指代當前要使用哪個 prefix)。設 prefix index 為 ,則這個 encoder 就是要學習 這個分布。

一方面,除了 LM loss ,還需要保證后驗概率 或 盡可能的準確,故引入 KL 散度:

這里的 假設是 uniform distribution。其中,

GS 表示 Gumbel Softmax, 是 GS 的 temperature 參數。

關于這塊兒的詳細原理,就是我們小學二年級就學過的 EM 算法啦~

幫讀者回憶一下:

......

另外,作者又提出了一個無監督對比損失:其中, 和 是根據 decoder 的文本生成概率得到的,具體計算方式如下:

最后總的損失函數為 ,, 的加權求和,

實驗結果

Sentiment Control

cfb4baae-a8da-11ec-952b-dac502259ad0.png

Detoxification

cfd7c936-a8da-11ec-952b-dac502259ad0.png

Topic Control

d006265a-a8da-11ec-952b-dac502259ad0.png

推理速度

d036c26a-a8da-11ec-952b-dac502259ad0.png

Multi-Aspect Control

實際場景中,很少有 multi-aspect labeled data,只有 single-aspect labeled data.

本文使用了兩種方式來解決多種屬性的可控生成問題:

Ours (concatenation):使用 single-aspect labeled data 分別訓練各自的 prefix, 然后在 multi-aspect control 任務中將其拼接起來。

Ours (semi-supervised):同時訓練 multi-aspect prefixes, 在訓練時把 single-aspect labeled example 當做 partially labeled. 此外,multi-aspect prefixes 經過了 trained single-aspect prefixes 的初始化。

Ours (semi-supervised) 是上述監督方法和無監督方法的組合,因此架構圖和無監督方法的圖是一樣的。

d04eca36-a8da-11ec-952b-dac502259ad0.png

寫在最后

這里也推薦讀者品讀一下 DeepMind & ICL 的相似工作:Control Prefixes [5].

古人云:“君子生非異也,善假于物也”。我們把語言模型比作“人”,把可控性比作“物”,也許,大大小小的語言模型在能力的本質上并沒有什么不同,但是如果可以通過不同的 Control Prefixes,假之以物,則語言模型可成“君子”也!(哈哈,搞一個俏皮的比喻~)

無論是本文介紹的 Contrastive Prefixes 也好,還是 Control Prefixes 也好,我們都可以從中發現 Prompt 對于”調教“語言模型的偉大能力。從 task 到 controllability, 可能會是 prompt 向前發展的又一個新階段吧~

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 語言模型
    +關注

    關注

    0

    文章

    506

    瀏覽量

    10245
  • prompt
    +關注

    關注

    0

    文章

    14

    瀏覽量

    2668

原文標題:搭配對比學習,萬能的 prompt 還能做可控文本生成

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    電子萬能試驗機與液壓萬能試驗機的區別

      電子萬能材料試驗機主要采用伺服電機作為動力源,絲杠、絲母作為執行部件,實現試驗機移動橫梁的速度控制。在傳動控制上,目前主要有兩種形式,同步帶 和減速機。國內來說,長春地區的試驗機廠家多采用同步帶
    發表于 07-04 16:06

    中星微萬能驅動下載

    中星微萬能驅動下載
    發表于 01-11 23:02 ?19次下載
    中星微<b class='flag-5'>萬能</b>驅動下載

    winxp萬能聲卡驅動,程序下載

    winxp萬能聲卡驅動 尊敬的用戶,本萬能
    發表于 04-21 19:23 ?538次下載
    winxp<b class='flag-5'>萬能</b>聲卡驅動,程序下載

    萬能遙控器設置方法_萬能遙控器代碼

    電視是每個家庭必不可少的家用電器,所以我們在使用遙控器的時間也會比較多。但如果遙控器換了怎么辦,很多人都會想到配一個萬能遙控器,那么萬能遙控器怎么設置,它的萬能
    發表于 09-14 18:08 ?18.8w次閱讀
    <b class='flag-5'>萬能</b>遙控器設置方法_<b class='flag-5'>萬能</b>遙控器代碼

    萬能鑰匙字典生成工具.exe

    電子發燒友網站提供《萬能鑰匙字典生成工具.exe.exe》資料免費下載
    發表于 04-09 19:43 ?4次下載

    萬能協議通信工具

    萬能協議通信工具分享
    發表于 11-18 11:47 ?14次下載

    萬能轉換開關原理_萬能轉換開關結構

    本文首先闡述了萬能轉換開關原理,其次介紹了萬能轉換開關技術特點,最后介紹了萬能轉換開關結構。
    發表于 12-09 10:16 ?9829次閱讀

    萬能轉換開關選型_萬能轉換開關使用

    本文主要介紹了萬能轉換開關選型方法及萬能轉換開關的使用。
    發表于 12-09 10:30 ?4168次閱讀

    文本生成任務中引入編輯方法的文本生成

    4. FELIX FELIX是Google Research在“FELIX: Flexible Text Editing Through Tagging and Insertion”一文中提出的文本生成
    的頭像 發表于 07-23 16:56 ?1704次閱讀
    <b class='flag-5'>文本生成</b>任務中引入編輯方法的<b class='flag-5'>文本生成</b>

    受控文本生成模型的一般架構及故事生成任務等方面的具體應用

    來自:哈工大訊飛聯合實驗室 本期導讀:本文是對受控文本生成任務的一個簡單的介紹。首先,本文介紹了受控文本生成模型的一般架構,點明了受控文本生成模型的特點。然后,本文介紹了受控文本生成
    的頭像 發表于 10-13 09:46 ?3483次閱讀
    受控<b class='flag-5'>文本生成</b>模型的一般架構及故事<b class='flag-5'>生成</b>任務等方面的具體應用

    基于GPT-2進行文本生成

    文本生成是自然語言處理中一個重要的研究領域,具有廣闊的應用前景。國內外已經有諸如Automated Insights、Narrative Science以及“小南”機器人和“小明”機器人等文本生成
    的頭像 發表于 04-13 08:35 ?4697次閱讀

    基于VQVAE的長文本生成 利用離散code來建模文本篇章結構的方法

    寫在前面 近年來,多個大規模預訓練語言模型 GPT、BART、T5 等被提出,這些預訓練模型在自動文摘等多個文本生成任務上顯著優于非預訓練語言模型。但對于開放式生成任務,如故事生成、新聞生成
    的頭像 發表于 12-01 17:07 ?1653次閱讀

    基于文本到圖像模型的可控文本到視頻生成

    文本到視頻模型需要大量高質量的視頻和計算資源,這限制了相關社區進一步的研究和應用。為了減少過度的訓練要求,我們研究了一種新的高效形式:基于文本到圖像模型的可控文本到視頻
    的頭像 發表于 06-14 10:39 ?921次閱讀
    基于<b class='flag-5'>文本</b>到圖像模型的<b class='flag-5'>可控</b><b class='flag-5'>文本</b>到視頻<b class='flag-5'>生成</b>

    面向結構化數據的文本生成技術研究

    今天我們要講的文本生成是現在最流行的研究領域之一。文本生成的目標是讓計算機像人類一樣學會表達,目前看基本上接近實現。這些突然的技術涌現,使得計算機能夠撰寫出高質量的自然文本,滿足特定的需求。
    的頭像 發表于 06-26 14:39 ?587次閱讀
    面向結構化數據的<b class='flag-5'>文本生成</b>技術研究

    如何使用 Llama 3 進行文本生成

    使用LLaMA 3(Large Language Model Family of AI Alignment)進行文本生成,可以通過以下幾種方式實現,取決于你是否愿意在本地運行模型或者使用現成的API
    的頭像 發表于 10-27 14:21 ?214次閱讀