精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

8G顯存一鍵訓練,解鎖Llama2隱藏能力!XTuner帶你玩轉大模型

jf_pmFSk4VX ? 來源:GiantPandaCV ? 2023-09-04 16:12 ? 次閱讀

自 ChatGPT 發布以來,大模型的強大讓人們看見了通用人工智能的曙光,各個科技大廠也紛紛開源自家的大語言模型。然而,大模型也意味著高昂的硬件成本,讓不少平民玩家望而卻步。

為了讓大模型走入千家萬戶,賦能百業,上海人工智能實驗室開發了低成本大模型訓練工具箱 XTuner,旨在讓大模型訓練不再有門檻。通過 XTuner,最低只需 8GB 顯存,就可以打造專屬于你的 AI 助手。

X 種選擇

a60b02ea-49aa-11ee-97a6-92fbcf53809c.png

XTuner 提供了豐富的功能,上圖中的各項功能都可以隨意組合搭配。

除單點功能外,XTuner 還有以下三個黑科技,讓開發者可以做到真正的“面向數據”工作。

高效的數據引擎

XTuner 適配了多個熱門開源數據集格式,開發者如已有對應格式的數據集,可以直接使用,并支持多種格式數據源的混合使用:

Alpaca 格式,斯坦福大學開源數據集的格式,也是社區開源項目使用較多的一種格式

MOSS 格式,復旦大學開源指令微調數據集的格式,包含多輪對話和工具調用

Gunacao 格式,QLoRA 項目中所使用數據集的格式

OpenAI 格式,GPT-3.5-Turbo Finetune 接口要求的數據集格式

更多數據集格式正在持續添加中......

pip install xtuner # 訓練混合了 Alpaca 格式和 Gunacao 格式的數據 xtuner train internlm_7b_qlora_alpaca_enzh_oasst1_e3

除了支持多種數據集格式外,XTuner 還針對大語言模型數據的特點,對各種數據集格式做了充分的解耦,相較于其他的 Finetune 開源項目,可以在不破壞 Chat 模型對話模版的情況下,對 Chat 模型進行 Finetune。

pip install xtuner # 不破壞 Chat 模型對話模版,繼續增量指令微調 xtuner train internlm_chat_7b_qlora_oasst1_e3

針對 GPU 計算特點,在顯存允許的情況下,XTuner 支持將多條短數據拼接至模型最大輸入長度,以此最大化 GPU 計算核心的利用率,可以顯著提升訓練速度。例如,在使用 oasst1 數據集微調 Llama2-7B 時,數據拼接后的訓練時長僅為普通訓練的 50%。

多種訓練引擎

XTuner 首次嘗試將 HuggingFace 與 OpenMMLab 進行結合,兼顧易用性和可配置性。支持使用 MMEngine Runner 和 HuggingFace Trainer 兩種訓練引擎,開發者如有深度定制化需求,可根據使用習慣靈活配置。

pip install xtuner # 使用 MMEngine Runner 訓練 xtuner train internlm_7b_qlora_oasst1_e3 # 使用 HugingFace Trainer 訓練 xtuner train internlm_7b_qlora_oasst1_e3_hf

一鍵啟動訓練

XTuner 內置了增量預訓練、單輪&多輪對話指令微調、工具類指令微調的標準化流程,讓開發者只需聚焦于數據本身。

同時, XTuner 集成了 QLoRA、DeepSpeed 和 FSDP 等技術,提供各種尺寸模型在各種規格硬件下的訓練解決方案,通過 XTuner 一鍵式啟動訓練,僅需 8GB 顯存即可微調 7B 模型。

pip install 'xtuner[deepspeed]' # 8G 顯存微調 Llama2-7B xtuner train llama2_7b_qlora_oasst1_512_e3 --deepspeed deepspeed_zero2

基于此,開發者可以專注于數據,其他環節放心交給 XTuner,抽出更多精力去奔向大模型的星辰大海!

X 種玩法

通過 XTuner,開發者可以給大模型添加插件,補足大模型欠缺的能力,甚至獲得某些 ChatGPT 才有的技能。

XTuner 在 HuggingFace Hub 上提供了豐富的大模型插件,以下示例都可以在 Hub 中找到,歡迎大家下載體驗!

ColoristLlama -- 你的專屬調色師

通過在少量顏色注釋數據集上對 Llama2-7B 進行指令微調訓練,XTuner 成功解鎖了其調色能力。最終得到的模型甚至可以像“你的甲方”一樣反復修訂!

a65a773a-49aa-11ee-97a6-92fbcf53809c.gif

a6751fd6-49aa-11ee-97a6-92fbcf53809c.gif

pip install xtuner xtuner chat hf meta-llama/Llama-2-7b-hf --adapter xtuner/Llama-2-7b-qlora-colorist --prompt-template colorist

Llama "聯網" -- 更可靠及時的回答

借助 XTuner 及插件開源數據集,我們還解鎖了 Llama 2、QWen 等開源模型的隱藏能力, 使其可以像 ChatGPT 一樣聯網搜索、調用工具,獲得更可靠的回復。

a68d9408-49aa-11ee-97a6-92fbcf53809c.gif

a6cac03a-49aa-11ee-97a6-92fbcf53809c.gif

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4700

    瀏覽量

    128697
  • 顯存
    +關注

    關注

    0

    文章

    108

    瀏覽量

    13649
  • 大模型
    +關注

    關注

    2

    文章

    2324

    瀏覽量

    2479

原文標題:8G顯存一鍵訓練,解鎖Llama2隱藏能力!XTuner帶你玩轉大模型

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama的安裝。 Llama3.2 Vision簡介 Llama 3.2 Vision是個多模態大型語言模型(LLMs)的集合,它
    的頭像 發表于 11-23 17:22 ?114次閱讀
    用Ollama輕松搞定<b class='flag-5'>Llama</b> 3.2 Vision<b class='flag-5'>模型</b>本地部署

    Llama 3 模型訓練技巧

    Llama 3 模型,假設是指個先進的人工智能模型,可能是個虛構的或者是個特定領域的術語。
    的頭像 發表于 10-27 14:24 ?227次閱讀

    一鍵斷電開關的種類有哪些

    內部的小電流控制大電流,達到弱電控制強電的目的。 特點 :快速、安全,能夠切斷所有連接的電源,適合需要快速切斷電源的場景。 應用場景 :家庭、辦公室、工廠等需要一鍵控制多個電源的場景。 2. 智能開關式一鍵斷電 定義 :隨著智能
    的頭像 發表于 09-13 16:45 ?749次閱讀

    源2.0-M32大模型發布量化版 運行顯存僅需23GB 性能可媲美LLaMA3

    北京2024年8月23日?/美通社/ -- 近日,浪潮信息發布源2.0-M32大模型4bit和8bit量化版,性能比肩700億參數的LLaMA3開源大
    的頭像 發表于 08-25 22:06 ?255次閱讀
    源2.0-M32大<b class='flag-5'>模型</b>發布量化版 運行<b class='flag-5'>顯存</b>僅需23GB 性能可媲美<b class='flag-5'>LLaMA</b>3

    變電站一鍵順控系統和開關柜一鍵順控有區別嗎?

    變電站一鍵順控系統和開關柜一鍵順控技術雖然都涉及到“一鍵順控”的概念,但它們在應用范圍和具體實現上有所不同,因此變電站一鍵順控系統和開關柜一鍵
    的頭像 發表于 07-31 13:34 ?456次閱讀
    變電站<b class='flag-5'>一鍵</b>順控系統和開關柜<b class='flag-5'>一鍵</b>順控有區別嗎?

    摩爾線程和滴普科技完成大模型訓練與推理適配

    近日,摩爾線程與滴普科技宣布了項重要合作成果。摩爾線程的夸娥(KUAE)千卡智算集群與滴普科技的企業大模型Deepexi已完成訓練及推理適配,共同實現了700億參數LLaMA2大語言
    的頭像 發表于 05-30 10:14 ?513次閱讀

    Meta Llama 3基礎模型現已在亞馬遜云科技正式可用

    亞馬遜云科技近日宣布,Meta公司最新發布的兩款Llama 3基礎模型——Llama 3 8B和Llama 3 70B,現已正式上線并集成至
    的頭像 發表于 05-09 10:39 ?372次閱讀

    【大語言模型:原理與工程實踐】大語言模型的預訓練

    進行損失計算,得到下個目標的預測。也會設計些其他輔助訓練任務,與主任務共同訓練。選擇合適的預訓練數據是確保
    發表于 05-07 17:10

    fatfs支持8G以上的內存卡嗎?

    在官網上下載了最新版的fatfs發現2G的SD卡可以正常讀寫 8G以上的SDHC則不能被識別 初始化都過不去
    發表于 04-26 07:40

    Meta推出最強開源模型Llama 3 要挑戰GPT

    公司這次開源了Llama 3 8B與70B兩款不同規模的模型,開發者可以免費使用,而Meta公司還將陸續推出系列具備多模態、多語言對話、更長上下文窗口等
    的頭像 發表于 04-19 17:00 ?804次閱讀

    Meta公司的Llama2語言模型4項測試通過率低,幻覺率高

    據了解,人工智能安全企業 DeepKeep日前發表了份評估報告。報告指出,Meta公司旗下LlamA 2大型語言模型在13個風險評估類別中的表現僅為4項合格。
    的頭像 發表于 04-18 14:45 ?432次閱讀

    LLaMA 2是什么?LLaMA 2背后的研究工作

    Meta 發布的 LLaMA 2,是新的 sota 開源大型語言模型 (LLM)。LLaMA 2 代表著
    的頭像 發表于 02-21 16:00 ?984次閱讀

    LayerNorm/RMSNorm的重計算實現

    我去實測了下,單機8卡A100訓練LLama7B,純數據并行的情況下打開memory_efficient開關相比于不打開節省了大約2
    的頭像 發表于 01-16 09:55 ?3178次閱讀
    LayerNorm/RMSNorm的重計算實現

    【飛騰派4G版免費試用】仙女姐姐的嵌入式實驗室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B

    訓練是MetaAI研究人員認為的種降低模型使用成本的方式。為了更好的效果,即便是LLaMA最小的70億參數的版本,其訓練使用的tokens
    發表于 12-22 10:18

    一鍵解鎖!晶體管結構工藝發展歷程

    一鍵解鎖!晶體管結構工藝發展歷程
    的頭像 發表于 12-07 09:48 ?691次閱讀
    <b class='flag-5'>一鍵</b><b class='flag-5'>解鎖</b>!晶體管結構工藝發展歷程