最近,在語言模型領域取得了巨大的進展,部分是因為它們可以通過In-Context- Learning ( ICL)來完 成各種復雜的任務。在ICL中,模型在執行未見過的用例之前,會首先接收一些輸入-標簽對的示例。一 般來說,ICL對模型的增強,有以下原因:
按照上下文示例的格式,利用預訓練階段得到的語義先驗知識來預測標簽(例如,當看到帶有“正面情感”和“負面情感”標簽的電影評論示例,使用先驗知識來做情感分析)。
從給的上下文示例中學習輸入-標簽的映射(例如,正面評論應該映射到一個標簽,負面評論應該映射到另一個標簽的模式)。
在本文中,我們旨在了解這兩個因素(語義先驗知識和輸入-標簽映射)在ICL的影響,尤其是當語言模 型的規模發生變化時。我們通過2種實驗方法來對這兩個因素進行研究,實驗方法分別為:翻轉標簽的 ICL (flipped-label ICL)和語義無關標簽的ICL ( SUL- ICL)。
在翻轉標簽的ICL中,上下文示例的標簽的語義被翻轉(例如原先的標簽為“Negative”,被反轉為 “Positive”),使得語義先驗知識和輸入-標簽映射不匹配。
ps:可以理解為,語義先驗知識中與該上下文示例相似的標簽都是“Negative”的,但是此處通過“翻轉標簽”方法,變為“Positive”后,先驗知識與當前的上下文示例的輸入-標簽映射產生了不匹配。
在SUL- ICL中,上下文示例的標簽被替換為與上下文中所呈現的任務在語義上無關的詞語(例如,原 先的標簽“Positive”,被替換為"Foo")。
ps:例如,原先的標簽為影評領域的,現在替換為美食或者其他領域的詞
我們發現,覆蓋先驗知識是隨著模型規模的增大而涌現的一種能力(ps:覆蓋先驗知識可以理解為,從上 下文示例中學習,而不是預訓練階段的先驗知識),從語義無關標簽的上下文中學習的能力也是如此。我們還發現,指令微調(Instruct-tuning)對學習先驗知識能力的加強上要超過對學習輸入-標簽映射的 增強。(下圖為普通ICL,翻轉標簽ICL和語義無關ICL的示例)
實驗設計
我們在七個廣泛使用的自然語言處理(NLP)任務上進行了實驗:情感分析、主/客觀分類、問題分類、 重復問題識別、蘊含關系識別、金融情感分析和仇恨言論檢測。我們在5種LLM上進行測試:PaLM、Flan- PaLM、GPT-InstructGPT和Codex。
翻轉標簽(Flipped Labels-ICL)
在這個實驗中,上下文示例的標簽被翻轉,意味著先驗知識和輸入-標簽映射不一致(例如,包含正面情 感的句子被標記為“Negative”),從而讓我們可以研究模型是否能夠覆蓋其先驗知識。在這種情況下, 具備覆蓋先驗知識能力的模型的性能應該會下降(因為真實的評估標簽沒有被翻轉)。(下圖為使用翻 轉標簽ICL后,不同語言模型的不同尺寸的在測試集上的準確率變化)
我們發現,當沒有標簽被翻轉時,大型模型的性能優于小型模型(如預期所示)。但是,當我們翻轉越來越多的標簽時,小型模型的性能保持相對穩定,而大型模型的性能下降得非常明顯,甚至低于隨機猜 測的水平(例如,對于code-davinci-002模型,性能從90%下降到22.5%)。
這些結果表明,當上下文中出現與先驗知識不一致的輸入-標簽映射時,大型模型可以覆蓋預訓練的先驗 知識,而小型模型則無法做到。
?作者說:此處,我理解為,更大的語言模型在覆蓋先驗知識的能力上更強,也就是更容易從給的上下文示例中學習到新的知識,如果給的上下文示例中存在與先驗知識沖突的情況,則模型會更加偏重上下文示例。
語義無關標簽(SUL-ICL)
在這個實驗中,我們將標簽替換為語義不相關的標簽(例如,在情感分析中,我們使用“foo/bar”代替 “negative/positive”),這意味著模型只能通過學習輸入-標簽映射來執行ICL。如果模型在ICL中主要依 賴于先驗知識,那么在進行這種更改后,其性能應該會下降,因為它將無法再利用標簽的語義含義進行 預測。而如果模型能夠在上下文中學習輸入-標簽映射,它就能夠學習這些語義無關的映射,并且不應該 出現主要性能下降。
(下圖為使用語義無關標簽ICL后,不同語言模型的不同尺寸的在測試集上的準確率變化)
事實上,我們發現對于小型模型來說,使用語義無關標簽導致了更大的性能下降。這表明,小型模型主要依賴于它們的語義先驗知識進行ICL,而不是從給的的輸入-標簽映射示例中學習。另一方面,當這些標簽標簽不再具備其原來所有的語義時,大型模型的學習上下文中的輸入-標簽映射的能力更強。
我們還發現,模型輸入更多的上下文示例對于大型模型的性能的提升要強于小模型,這表明大型模型比 小型模型更擅長從上下文示例中學習。
(下圖為使用不同數量的語義無關標簽ICL后,不同語言模型的不同尺寸的在測試集上的準確率變化)
指令微調(Instruction tuning)
指令微調是一種提高模型性能的常用技術,它將各種自然語言處理(NLP)任務調整為指令的形式輸入 給模型(例如,“問題:以下句子的情感是什么?答案:積極的“)。然而,由于該過程使用自然語言標簽,一個懸而未決的問題是,它是否提高了學習輸入-標簽映射的能力,亦或是增強了學習并應用語義先驗知識的能力。這兩者都會給ICL任務帶來性能提升,因此目前尚不清楚這兩者中哪一個生效了。
我們通過前兩個實驗方法繼續研究這個問題,但這一次我們專注于比較標準語言模型(PaLM)與經過指令微調的模型(Flan- PaLM)之間的差異。
首先,我們發現在使用語義無關標簽時, Flan- PaLM要優于PaLM。在小型模型中,這種效果非常明顯, Flan- PaLM-8B的性能超過PaLM-8B約9.6%,并且接近PaLM-62B的性能。這一趨勢表明,指令微調增強了學習輸入-標簽映射的能力。
(下圖表明:指令微調后的模型更容易學習輸入-標簽映射)
更有趣的是,我們發現Flan- PaLM在遵循翻轉標簽方面實際上比PaLM要差,這意味著經過指令調整的模型無法覆蓋其先驗知識(Flan- PaLM模型在100%翻轉標簽的情況下無法達到低于隨機猜測 的水平,而沒有經過指令調整的PaLM模型在相同設置下可以達到31%的準確率)。這些結果表明,指令調整必須增加模型在有語義先驗知識可用時依賴于語義先驗知識的程度。
(下圖表示:指令微調后的模型,在使用翻轉標簽ICL時,更不容易覆蓋先驗知識)
結合之前的結果,我們得出結論,雖然指令微調提高了學習輸入-標簽映射的能力,但它在學習語義先驗 知識上的加強更為突出。
結論
通過上述實驗,可以得到以下的結論:
首先,大語言模型可以在輸入足夠多的翻轉標簽的情況下學會對先驗知識的覆蓋,并且這種能力隨 著模型規模的增大而加強。
其次,使用語義無關標簽進行上下文學習的能力隨著模型規模的增大而加強。
最后,通過對指令微調后的語言模型的研究,發現指令微調雖然可以提高學習輸入-標簽映射的能 力,但遠不如其對學習語義先驗知識的加強。
未來工作
這些結果強調了語言模型的ICL行為在模型規模方面可能發生變化,而更大的語言模型具有將輸入映射到更多種類型標簽的能力,這可能使得模型可以學習任意符號的輸入-標簽映射。未來的研究可以幫助我們更好地理解這種現象。
審核編輯:劉清
-
Palm
+關注
關注
0文章
22瀏覽量
11272 -
icl
+關注
關注
0文章
28瀏覽量
17222 -
nlp
+關注
關注
1文章
487瀏覽量
22012
原文標題:In-Context-Learning在更大的語言模型上表現不同
文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論