精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

LLM性能的主要因素

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 2023-05-22 15:26 ? 次閱讀

現在是2023年5月,截止目前,網絡上已經開源了眾多的LLM,如何用較低的成本,判斷LLM的基礎性能,選到適合自己任務的LLM,成為一個關鍵。

本文會涉及以下幾個問題:

影響LLM性能的主要因素

目前主要的模型的參數

LLaMA系列是否需要擴中文詞表

不同任務的模型選擇

影響LLM性能的主要因素

91aeae64-f70c-11ed-90ce-dac502259ad0.png

Scaling Laws for Neural Language Models

OpenAI的論文Scaling Laws中列舉了影響模型性能最大的三個因素:計算量、數據集大小、模型參數量。也就是說,當其他因素不成為瓶頸時,計算量、數據集大小、模型參數量這3個因素中的單個因素指數增加時,loss會線性的下降。同時,DeepMind的研究也得出來和OpenAI類似的結論。那么我們可以基本確定,如果一個模型在這3個方面,均做的不錯,那么將會是一個很好的備選。

模型參數量是我們最容易注意到的,一般而言,LLM也只在訓練數據上訓練1個epoch(如果還有算力,其實可以擴更多的新數據),那么,數據集的大小就是很關鍵的參數。訓練OPT-175B的Susan Zhang在Stanford分享的時候,也提到了,如果能夠重新再來一次,她會選擇much much more data。可見數據量的重要性。

了解到Scaling Laws之后,為了降低模型的推理成本,可以在模型參數量降低的同時,增加訓練的數據量,這樣可以保證模型的效果。Chinchilla和LLaMA就是這樣的思路。

除了以上的因素之外,還有一個比較大的影響因素就是數據質量。

91b47d26-f70c-11ed-90ce-dac502259ad0.png

Instruction Tuning with GPT-4

在微軟的論文中指出,同樣基于LLaMA模型,使用GPT3和GPT4產生的數據,對模型進行Instruction Turing,可以看到GPT4的數據微調過的模型效果遠遠好于GPT3數據微調的模型,可見數據質量帶來的影響。同樣的,Vicuna的Instruction Turing中,也對shareGPT的數據做了很細致的清洗工作。

所以,如果沒有數量級的差異,在Instruction Turing的時候,可以盡可能拋棄質量差的數據,保留高質量的數據。

目前主要的模型的參數

訓練數據量 參數
LLaMA 1T~1.4T tokens 7B~65B
chatGLM-6B 1T tokens 6B

根據我們上面的推理,訓練數據量是對模型影響最關鍵的因素。LLaMA和chatGLM-6B是目前效果相對比較好的LLM,他們的訓練數據都達到了至少1T tokens。那么如果一個LLM的訓練數據量,少于1T tokens數的話,這個模型可以不用考慮了。

而LLaMA的參數量可以有7B、13B、33B、65B可以選擇,那么在參數量上和可選擇性上,比chatGLM要更優秀。那么,基于這些考慮,LLaMA系列及其變種,是當前更好的選擇。而且,經過Instruction Turing之后,Vicuna已經表現出了非常好的性能,根據微軟的論文(不是伯克利自己的論文),Vicuna已經達到90%的GPT4的效果。這一點和伯克利自己的結論也吻合。

在Vicuna的作者的博客中,作者也提到了vicuna-13B會比vicuna-7B效果好很多。筆者自己微調過這兩個模型,13B確實會比7B的準確率高出5-10%。

同時,int8量化的Vicuna-13B在推理時,只需要20GB的顯存,可以放進很多消費級的顯卡中。

這么看起來,Vicuna-13B確實是一個很強的baseline,目前看到的開源LLM,只有WizardVicunaLM 的效果更優于Vicuna-13B。如果你沒有很多時間調研,那么vicuna-13B會是一個不錯的備選。

LLaMA系列是否需要擴中文詞表

關于LLaMA的一個爭論就是,LLaMA的base model是在以英語為主要語言的拉丁語系上進行訓練的,中文效果會不會比較差?還有就是,LLaMA詞表中的中文token比較少,需不需要擴詞表?

針對問題一,微軟的論文中已經驗證了,經過Instruction Turing的Vicuna-13B已經有非常好的中文能力。

91bb49f8-f70c-11ed-90ce-dac502259ad0.png

Instruction Tuning with GPT-4

那為什么沒有在很多中文語料上訓練過的LLaMA,能有這么好的中文能力呢?首先,在GPT4的技術報告中提到,即使在數據量很少的語言上,GPT4也有非常好的性能。

91c2499c-f70c-11ed-90ce-dac502259ad0.png

GPT-4 Technical Report

LLM表現出了驚人的跨語言能力。我猜其中一個比較重要的原始是采用了byte-level BPE算法構建詞表。這種BBPE算法,將很多字符都拆分到byte級別。比如,雖然詞表中沒有對應的中文字符,但是可以通過組合byte,構建出來原始的中文字符。這部分可以參考文章Dylan:[分析] 淺談ChatGPT的Tokenizer。因此,經過超大規模的語料訓練之后,LLM可以跨不同的語言,表現出很好的性能。

采用BBPE的好處是可以跨語言共用詞表,顯著壓縮詞表的大小。而壞處就是,對于類似中文這樣的語言,一段文字的序列長度會顯著增長。因此,很多人會想到擴中文詞表。但考慮到擴詞表,相當于從頭初始化開始訓練這些參數。因此,參考第一節的結論,如果想達到比較好的性能,需要比較大的算力和數據量。如果沒有很多數據和算力,就不太建議這么搞。

根據開源項目Chinese-LLaMA-Alpaca公布的數據,他們在使用120G的中文語料后(下圖中的Alpaca-Plus-7B和Alpaca-Plus-13B),效果才有不錯的提升,而在使用20G語料時(下圖中的Alpaca-13B),效果還相對比較差。作為對比,原始的LLaMA使用的數據量大概是4T左右(此處是存儲空間,不是token數)。

91ca7bd0-f70c-11ed-90ce-dac502259ad0.png

Chinese-LLaMA-Alpaca

因此,雖然擴詞表看起來很誘人,但是實際操作起來,還是很有難度的,不過如果你有很多數據和算力,這個當我沒說(不是)。

不同任務的模型選擇

上文還提到,LLaMA系列的一大優勢是,有很多不同大小的模型,從7B-65B。上面我們主要討論了13B的模型,還有33B和65B的模型沒有討論。那什么場景下,13B的模型也不夠,需要更大的模型呢?

答案就是,只要你的算力可以支持,就建議上更大的模型。

91d1a126-f70c-11ed-90ce-dac502259ad0.png

GPTQ-for-LLaMa

根據GPTQ-for-LLaMa 的數據,可以看到隨著模型的增大,模型在wiki2數據上的困惑度一直在下降。更重要的是,LLaMA-33B經過int4量化之后,PPL低于LLaMA-13B!LLaMA-65B經過int4量化之后,PPL低于LLaMA-33B!并且,LLaMA-33B經過int4量化之后,推理只需要20GB的顯存!!!

看到這個數據,我著實有點小激動。然后立馬開始著手微調33B的模型!!!

當然,從推理成本的角度來看,模型參數量越小,成本越低。那什么情況下可以用小模型呢?回答是,需要根據任務的難易程度選擇模型大小,如果任務很簡單,其實小模型就OK。比如處理一些比較簡單的中文任務,chatGLM-6B將會更合適。中文詞表,再加上推理更好的優化,可以極大降低推理成本。

但如果任務很難,對于語義的理解程度很高,那么肯定是模型越大效果越好。有什么任務是比較難的任務呢?我們來看看什么任務讓GPT4的覺得比較困難。

91d91514-f70c-11ed-90ce-dac502259ad0.png

GPT-4 Technical Report

可以看到,GPT4表現最差的幾個項目分別是Codeforces Rating、AP English Literature、AMC 10和AP English Language(AP是Advanced Placement,美國大學先修課程)。其中有兩個分別是代碼測試和數學測試,語言模型(LM)表現比較差符合預期。但是作為地表最強語言模型,在English Literature和English Language的考試中,這樣的表現,是讓人有點意外的。不過,話說回來,OpenAI對于GPT4的定位,還是一個工具型助手,而不是一個寫文學性文字的模型。RLHF的作用,也是讓模型,盡可能符合人對它的instruction。

因此,如果你的任務是,讓LLM去寫偏文學性的文章,應該要注意兩個方面:1、任務本身有難度,盡可能上能力范圍內的參數量更大的模型;2、數據層面,不要使用Instruction Turing的數據 ,而需要自己去找合適的高質量數據集。

審核編輯:彭靜
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3178

    瀏覽量

    48729
  • 數據集
    +關注

    關注

    4

    文章

    1205

    瀏覽量

    24649
  • GPT
    GPT
    +關注

    關注

    0

    文章

    352

    瀏覽量

    15315
  • LLM
    LLM
    +關注

    關注

    0

    文章

    276

    瀏覽量

    306

原文標題:大模型選型的一點思考

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    影響SNR損失的主要因素有哪些?

    影響SNR 損失(由信號縮放引入)的主要因素有哪些,如何對其進行定量分析,以及更重要的是:如何把這種影響降至最低。
    發表于 03-11 06:36

    請問影響絕緣電阻測量值的主要因素是什么?

    影響絕緣電阻測量值的主要因素是什么? 兆歐表使用不當的影響是什么?
    發表于 04-09 06:58

    請問影響磨削變質層的主要因素有哪些?

    滾動軸承工作表面質量研究包括什么?影響磨削變質層的主要因素有哪些?
    發表于 04-20 07:35

    請問PCB價格的主要因素有哪些?

    PCB價格的主要因素有哪些?
    發表于 04-21 06:37

    影響OTDR測試誤差的主要因素有哪些?

    本文為您總結了影響OTDR測試誤差的四大類主要因素
    發表于 04-29 06:50

    影響絕緣電阻測量值的主要因素是什么?

    影響絕緣電阻測量值的主要因素是什么?兆歐表使用不當的影響是什么?
    發表于 05-08 09:14

    選擇測試設備時需要考慮的主要因素有哪些?

    選擇測試設備時需要考慮的主要因素有哪些?混合信號設計中常見的問題有哪些?
    發表于 05-18 06:13

    決定仿真精度的主要因素

    決定仿真精度的主要因素是模型本身的精度,其次還有仿真器算法、仿真精度設置等。模型精度與軟件沒有直接關系。但比較SABER的MAST與PSpice的模型,對常用的TEMPLATE(如RLC、變壓器等
    發表于 11-11 09:07

    影響步進電機性能主要因素有哪些?

    中非常重要的。  總的來說,影響步進電機性能主要因素有驅動方式、驅動電壓、驅動電流、靜力矩。除此之外,還應該考慮距頻特性、相數和空載起動頻率,因為其都是影響步進電機性能的重要因素,所
    發表于 03-10 10:33

    影響ADSL線路質量的主要因素

    影響ADSL線路質量的主要因素    ADSL信號和基本音頻電話信號(4KHz以下)通過普通電話業務分離器無源耦合到普
    發表于 10-20 09:04 ?1909次閱讀

    影響LED發光效率的主要因素

    影響LED發光效率的主要因素 1、熒光粉顆粒度的大小 如果顆粒度比較大,將直接降低光強,以及點膠的難
    發表于 05-09 08:58 ?2648次閱讀

    影響手機待機時間的主要因素

    影響手機待機時間的主要因素
    發表于 12-19 11:22 ?381次閱讀

    影響電機結構的主要因素有哪些

    影響電機結構的主要因素是兩個方面:一個是導磁材料性能,一個是導體材料性能。如果導體材料的導電性能好,我們就可以減小導線的線徑,可以在磁場中,增加單位體積內的導線數量,電動機產生的電動力
    的頭像 發表于 03-15 17:25 ?5074次閱讀

    影響光纖跳線管理的4種主要因素

    要想管理后的光纖跳線靈活多變,井井有序,首先要了解影響光纖跳線性能的一些因素。這里將介紹4種影響光纖跳線管理的主要因素
    的頭像 發表于 03-29 17:15 ?1885次閱讀
    影響光纖跳線管理的4種<b class='flag-5'>主要因素</b>

    影響放大電路高頻特性的主要因素

    影響放大電路高頻特性的主要因素? 放大電路是電子電路中最基本的構件之一,它在現代通信、音頻、視頻等領域扮演著至關重要的角色,并且在進一步提高其性能方面也一直是研究的熱點。而放大電路的高頻特性則是
    的頭像 發表于 09-18 10:44 ?3564次閱讀