精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

與ChatGPT性能最相匹配的開源模型

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 2023-04-06 10:16 ? 次閱讀

前言

最近由UC Berkeley、CMU、Stanford, 和 UC San Diego的研究人員創(chuàng)建的 Vicuna-13B,通過在 ShareGPT 收集的用戶共享對話數(shù)據(jù)中微調(diào) LLaMA獲得。其中使用 GPT-4 進(jìn)行評估,發(fā)現(xiàn)Vicuna-13B 的性能達(dá)到了ChatGPT 和 Bard 的 90% 以上,同時在 90% 情況下都優(yōu)于 LLaMA 和 Alpaca 等其他模型。訓(xùn)練 Vicuna-13B 的費(fèi)用約為 300 美元。訓(xùn)練和代碼[1]以及在線演示[2]已公開。

Vicuna到底怎么樣?

Vicuna在官網(wǎng)中通過和Alpaca、LLaMA、ChatGPT和Bard對比,然后通過GPT4當(dāng)裁判來打出分?jǐn)?shù),具體如下。

13c714ec-d401-11ed-bfe3-dac502259ad0.png

問題

13de1fde-d401-11ed-bfe3-dac502259ad0.png

Alpaca-13b vs Vicuna

140b2c9a-d401-11ed-bfe3-dac502259ad0.png

LLaMA-13b vs Vicuna

1430ff2e-d401-11ed-bfe3-dac502259ad0.png

ChatGPT vs Vicuna

1454ff3c-d401-11ed-bfe3-dac502259ad0.png

Bard vs Vicuna

可以看出,Vicuna的回答還是非常棒的,讓GPT4來打分,Vicuna和ChatGPT是十分接近的,遠(yuǎn)遠(yuǎn)高于Alpaca和LLaMA。

如果大家想試試別的問題,可以自己去嘗試[3]哈。

1476f48e-d401-11ed-bfe3-dac502259ad0.png

可換不同類型的不同問題

然而,官方認(rèn)為評估聊天機(jī)器人絕非易事,聽過GPT4進(jìn)行評估是一件十分不嚴(yán)格的事情,但是目前還是無法解決評估的問題,需要后續(xù)學(xué)者進(jìn)行進(jìn)一步探索。

148f1b54-d401-11ed-bfe3-dac502259ad0.png

圖1 GPT-4 評估

在線demo

14a82ec8-d401-11ed-bfe3-dac502259ad0.png

概述

14cef7ec-d401-11ed-bfe3-dac502259ad0.png

圖2 工作流

圖 2 介紹了整體工作流程。訓(xùn)練是在一天時間在 8 個 A100 上使用 PyTorch FSDP 完成的。 LLaMA、Alpaca、ChatGPT 和 Vicuna 的詳細(xì)比較如表 1 所示。

14f36212-d401-11ed-bfe3-dac502259ad0.png

表1 一些模型的對比

訓(xùn)練

Vicuna 是通過使用從 ShareGPT.com 使用公共 API 收集的大約 7萬 用戶共享對話微調(diào) LLaMA 基礎(chǔ)模型創(chuàng)建的。為了確保數(shù)據(jù)質(zhì)量,將 HTML 轉(zhuǎn)換回 markdown 并過濾掉一些不合適或低質(zhì)量的樣本。此外,將冗長的對話分成更小的部分,以適應(yīng)模型的最大上下文長度。

訓(xùn)練方法建立在斯坦福alpaca的基礎(chǔ)上,并進(jìn)行了以下改進(jìn)。

內(nèi)存優(yōu)化:為了使 Vicuna 能夠理解長上下文,將最大上下文長度從alpaca 中的 512 擴(kuò)展到 2048。還通過gradient checkpointingflash attentio來解決內(nèi)存壓力。

多輪對話調(diào)整訓(xùn)練損失考慮多輪對話,并僅根據(jù)聊天機(jī)器人的輸出進(jìn)行微調(diào)。

通過 Spot 實例降低成本:使用 SkyPilot 托管點(diǎn)來降低成本。該解決方案將 7B 模型的訓(xùn)練成本從 500 美元削減至 140 美元左右,將 13B 模型的訓(xùn)練成本從 1000 美元左右削減至 300 美元。

150d9588-d401-11ed-bfe3-dac502259ad0.png

圖3 通過GPT4來評估打分

153299aa-d401-11ed-bfe3-dac502259ad0.png

通過GPT4評估得出的總分






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    210

    文章

    28212

    瀏覽量

    206549
  • CMU
    CMU
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    15231
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    351

    瀏覽量

    15315
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1548

    瀏覽量

    7495

原文標(biāo)題:Vicuna:與ChatGPT 性能最相匹配的開源模型

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    開源與閉源之爭:最新的開源模型到底還落后多少?

    一,引言 隨著人工智能(AI)技術(shù)的迅猛發(fā)展,大模型已經(jīng)成為推動科技進(jìn)步的重要力量。然而,超大規(guī)模模型在帶來高性能的同時,也面臨著資源消耗大、部署困難等問題。本文將探討AI大模型未來的
    的頭像 發(fā)表于 11-15 11:16 ?116次閱讀
    <b class='flag-5'>開源</b>與閉源之爭:最新的<b class='flag-5'>開源</b><b class='flag-5'>模型</b>到底還落后多少?

    ChatGPT:怎樣打造智能客服體驗的重要工具?

    用戶反饋和評估ChatGPT性能。根據(jù)用戶的需求和反饋,不斷優(yōu)化模型和改進(jìn)客服體驗。7.人工智能與人工混合:將ChatGPT與人工客服團(tuán)隊結(jié)合使用,形成人工智能與人工混合的客服模式。
    的頭像 發(fā)表于 11-01 11:12 ?130次閱讀
    <b class='flag-5'>ChatGPT</b>:怎樣打造智能客服體驗的重要工具?

    如何提升 ChatGPT 的響應(yīng)速度

    同時進(jìn)行,從而減少總體響應(yīng)時間。 模型壓縮 :通過模型壓縮技術(shù),如量化、剪枝等,可以減少模型的大小,從而加快模型的加載和推理速度。 知識蒸餾 :將大型
    的頭像 發(fā)表于 10-25 17:39 ?554次閱讀

    怎樣搭建基于 ChatGPT 的聊天系統(tǒng)

    搭建一個基于ChatGPT的聊天系統(tǒng)是一個涉及多個步驟的過程,包括理解ChatGPT的API、設(shè)計用戶界面、處理數(shù)據(jù)和集成ChatGPT模型。以下是一個簡化的指南,用于創(chuàng)建一個基本的聊
    的頭像 發(fā)表于 10-25 16:23 ?439次閱讀

    如何使用 ChatGPT 進(jìn)行內(nèi)容創(chuàng)作

    ChatGPT平臺。 選擇模型ChatGPT目前支持GPT3.5和GPT4兩個模型。根據(jù)創(chuàng)作需求,選擇合適的模型。一般來說,GPT4
    的頭像 發(fā)表于 10-25 16:08 ?364次閱讀

    澎峰科技高性能模型推理引擎PerfXLM解析

    ChatGPT問世以來,大模型遍地開花,承載大模型應(yīng)用的高性能推理框架也不斷推出,大有百家爭鳴之勢。在這種情況下,澎峰科技作為全球領(lǐng)先的智能計算服務(wù)提供商,在2023年11月25日發(fā)
    的頭像 發(fā)表于 09-29 10:14 ?388次閱讀
    澎峰科技高<b class='flag-5'>性能</b>大<b class='flag-5'>模型</b>推理引擎PerfXLM解析

    模型LLM與ChatGPT的技術(shù)原理

    在人工智能領(lǐng)域,大模型(Large Language Model, LLM)和ChatGPT等自然語言處理技術(shù)(Natural Language Processing, NLP)正逐步改變著人類
    的頭像 發(fā)表于 07-10 10:38 ?707次閱讀

    llm模型chatGPT的區(qū)別

    ,有許多不同的LLM模型,如BERT、GPT、T5等。 ChatGPT是一種基于GPT(Generative Pre-trained Transformer)模型的聊天機(jī)器人。GPT模型
    的頭像 發(fā)表于 07-09 09:55 ?927次閱讀

    名單公布!【書籍評測活動NO.34】大語言模型應(yīng)用指南:以ChatGPT為起點(diǎn),從入門到精通的AI實踐教程

    ,包括開源和閉源兩類。閉源模型的代表有OpenAI 的 GPT 系列和 Anthropic 的 Claude 系列。毫無疑問,目前 OpenAI 的 GPT 系列模型在整個行業(yè)中處于領(lǐng)先地位,其
    發(fā)表于 06-03 11:39

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了

    當(dāng)?shù)貢r間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強(qiáng)大基礎(chǔ)上,這種迭代擁有顯著的改進(jìn)。在發(fā)布會的演示中,OpenAI展示該模型的高級
    發(fā)表于 05-27 15:43

    在FPGA設(shè)計中是否可以應(yīng)用ChatGPT生成想要的程序呢

    當(dāng)下AI人工智能崛起,很多開發(fā)領(lǐng)域都可看到ChatGPT的身影,F(xiàn)PGA設(shè)計中,是否也可以用ChatGPT輔助設(shè)計呢?
    發(fā)表于 03-28 23:41

    谷歌發(fā)布輕量級開源人工智能模型Gemma

    谷歌近日宣布推出開源人工智能(AI)模型系列Gemma,旨在為開發(fā)人員和研究人員提供一個負(fù)責(zé)任的AI構(gòu)建平臺。這一舉措標(biāo)志著自2022年OpenAI的ChatGPT引領(lǐng)AI聊天機(jī)器人熱潮后,谷歌首次發(fā)布重要的
    的頭像 發(fā)表于 02-23 11:38 ?808次閱讀

    【國產(chǎn)FPGA+OMAPL138開發(fā)板體驗】(原創(chuàng))6.FPGA連接ChatGPT 4

    方面。而且,由于ChatGPT 4是一個大型的語言模型。通常,F(xiàn)PGA會用于處理一些底層的數(shù)據(jù)流或執(zhí)行特定的硬件加速任務(wù),而ChatGPT 4這樣的模型則會在云端或高
    發(fā)表于 02-14 21:58

    ChatGPT原理 ChatGPT模型訓(xùn)練 chatgpt注冊流程相關(guān)簡介

    的影響,其注冊相對繁瑣。那么國內(nèi)如何注冊ChatGPT賬號?本文跟大家詳細(xì)分享GPT賬戶注冊教程,手把手教你成功注冊ChatGPTChatGPT是一種自然語言處理模型
    的頭像 發(fā)表于 12-06 16:28 ?846次閱讀
    <b class='flag-5'>ChatGPT</b>原理 <b class='flag-5'>ChatGPT</b><b class='flag-5'>模型</b>訓(xùn)練 <b class='flag-5'>chatgpt</b>注冊流程相關(guān)簡介

    美國國防部采辦中的ChatGPT:高級語言模型的機(jī)遇和風(fēng)險

    ChatGPT 是一種人工智能語言模型,是一種根據(jù)用戶輸入生成文本的計算機(jī)程序。雖然有許多語言模型,但 ChatGPT 因其能夠準(zhǔn)確生成類似人類的文本而在最近受到最多關(guān)注。
    的頭像 發(fā)表于 12-05 15:10 ?784次閱讀