精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA TensorRT-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA英偉達企業(yè)解決方案 ? 2024-11-28 10:43 ? 次閱讀

感謝眾多用戶及合作伙伴一直以來對NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現(xiàn)已在 GitHub 上公開發(fā)布!

TensorRT-LLM

持續(xù)助力用戶優(yōu)化推理性能

TensorRT-LLM 可在 NVIDIA GPU 上加速和優(yōu)化最新的大語言模型(Large Language Models)的推理性能。該開源程序庫在 /NVIDIA/TensorRT-LLM GitHub 資源庫中免費提供。

近期,我們收到了許多用戶的積極反饋,并表示,TensorRT-LLM 不僅顯著提升了性能表現(xiàn),還成功地將其應(yīng)用集成到各自的業(yè)務(wù)中。TensorRT-LLM 強大的性能和與時俱進的新特性,為客戶帶來了更多可能性。

Roadmap 現(xiàn)已公開發(fā)布

過往,許多用戶在將 TensorRT-LLM 集成到自身軟件棧的過程中,總是希望能更好地了解 TensorRT-LLM 的 Roadmap。即日起,NVIDIA 正式對外公開 TensorRT-LLM 的 Roadmap ,旨在幫助用戶更好地規(guī)劃產(chǎn)品開發(fā)方向。

我們非常高興地能與用戶分享,TensorRT-LLM 的 Roadmap 現(xiàn)已在 GitHub 上公開發(fā)布。您可以通過以下鏈接隨時查閱:

https://github.com/NVIDIA/TensorRT-LLM

d88235d6-acaa-11ef-93f3-92fbcf53809c.png

圖 1. NVIDIA/TensorRT-LLM GitHub 網(wǎng)頁截屏

這份 Roadmap 將為您提供關(guān)于未來支持的功能、模型等重要信息,助力您提前部署和開發(fā)。

同時,在 Roadmap 頁面的底部,您可通過反饋鏈接提交問題。無論是問題報告還是新功能建議,我們都期待收到您的寶貴意見。

d8915bb0-acaa-11ef-93f3-92fbcf53809c.png

圖 2.Roadmap 整體框架介紹

利用 TensorRT-LLM

優(yōu)化大語言模型推理

TensorRT-LLM 是一個用于優(yōu)化大語言模型(LLM)推理的庫。它提供最先進的優(yōu)化功能,包括自定義 Attention Kernel、Inflight Batching、Paged KV Caching、量化技術(shù)(FP8、INT4 AWQ、INT8 SmoothQuant 等)以及更多功能,以讓你手中的 NVIDIA GPU 能跑出極致推理性能。

TensorRT-LLM 已適配大量的流行模型。通過類似 PyTorch 的 Python API,可以輕松修改和擴展這些模型以滿足自定義需求。以下是已支持的模型列表。

d89b7758-acaa-11ef-93f3-92fbcf53809c.png

我們鼓勵所有用戶定期查閱 TensorRT-LLM Roadmap。這不僅有助于您及時了解 TensorRT-LLM 的最新動態(tài),還能讓您的產(chǎn)品開發(fā)與 NVIDIA 的技術(shù)創(chuàng)新保持同步。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4949

    瀏覽量

    102823
  • GitHub
    +關(guān)注

    關(guān)注

    3

    文章

    467

    瀏覽量

    16389
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    275

    瀏覽量

    306

原文標題:NVIDIA TensorRT-LLM Roadmap 現(xiàn)已在 GitHub 上公開發(fā)布!

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    TensorRT-LLM低精度推理優(yōu)化

    本文將分享 TensorRT-LLM 中低精度量化內(nèi)容,并從精度和速度角度對比 FP8 與 INT8。首先介紹性能,包括速度和精度。其次,介紹量化工具 NVIDIA TensorRT Model
    的頭像 發(fā)表于 11-19 14:29 ?174次閱讀
    <b class='flag-5'>TensorRT-LLM</b>低精度推理優(yōu)化

    NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓(xùn)練數(shù)據(jù)

    Nemotron-4 340B 是針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進的指導(dǎo)和獎勵模型,以及一個用于生成式 AI 訓(xùn)練的數(shù)據(jù)集。
    的頭像 發(fā)表于 09-06 14:59 ?274次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron-4 340B模型幫助<b class='flag-5'>開發(fā)</b>者生成合成訓(xùn)練數(shù)據(jù)

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國最具影響力的模型開源社區(qū),致力給開發(fā)者提供模型即服務(wù)的體驗。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語言模型的推理性能,方便了模型應(yīng)用部署,提高了大模型產(chǎn)業(yè)應(yīng)用效率,更大規(guī)模地釋放大模型的
    的頭像 發(fā)表于 08-23 15:48 ?392次閱讀

    Mistral Large 2現(xiàn)已在Amazon Bedrock中正式可用

    北京2024年7月25日 /美通社/ -- 亞馬遜云科技宣布,Mistral AI的Mistral Large 2(24.07)基礎(chǔ)模型(FM)現(xiàn)已在Amazon Bedrock中正式可用
    的頭像 發(fā)表于 07-26 08:07 ?315次閱讀

    NVIDIA 通過 Holoscan 為 NVIDIA IGX 提供企業(yè)軟件支持

    Enterprise-IGX軟件現(xiàn)已在NVIDIA IGX平臺上正式可用,以滿足工業(yè)邊緣對實時 AI 計算日益增長的需求。它們將共同幫助醫(yī)療、工業(yè)和科學(xué)計算領(lǐng)域的解決方案提供商利用企業(yè)級軟件和支持來加快開發(fā)
    的頭像 發(fā)表于 06-04 10:21 ?468次閱讀

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個開源庫,用于優(yōu)化從 PC 到云端的
    的頭像 發(fā)表于 04-28 10:36 ?491次閱讀

    Mistral Large模型現(xiàn)已在Amazon Bedrock正式可用

    Mistral AI的Mistral Large模型現(xiàn)已在Amazon Bedrock正式可用。今年三月,亞馬遜云科技在Amazon Bedrock引入了法國先鋒AI初創(chuàng)企業(yè)Mistral AI
    的頭像 發(fā)表于 04-08 16:26 ?521次閱讀

    基于NVIDIA Megatron Core的MOE LLM實現(xiàn)和訓(xùn)練優(yōu)化

    本文將分享阿里云人工智能平臺 PAI 團隊與 NVIDIA Megatron-Core 團隊在 MoE (Mixture of Experts) 大語言模型(LLM)實現(xiàn)與訓(xùn)練優(yōu)化的創(chuàng)新工作。
    的頭像 發(fā)表于 03-22 09:50 ?712次閱讀
    基于<b class='flag-5'>NVIDIA</b> Megatron Core的MOE <b class='flag-5'>LLM</b>實現(xiàn)和訓(xùn)練優(yōu)化

    Android 15的首個開發(fā)者預(yù)覽版現(xiàn)已發(fā)布

    Android 15 的首個開發(fā)者預(yù)覽版現(xiàn)已發(fā)布,以便各位開發(fā)者能與我們通力協(xié)作,打造更優(yōu)秀的 Android 平臺。
    的頭像 發(fā)表于 03-12 14:16 ?861次閱讀
    Android 15的首個<b class='flag-5'>開發(fā)</b>者預(yù)覽版<b class='flag-5'>現(xiàn)已</b><b class='flag-5'>發(fā)布</b>

    ServiceNow、Hugging Face 和 NVIDIA 發(fā)布全新開放獲取 LLM,助力開發(fā)者運用生成式 AI 構(gòu)建企業(yè)應(yīng)用

    2024 年 2 月 28 日 - ServiceNow(NYSE:NOW)、Hugging Face 和 NVIDIA 于今日發(fā)布 StarCoder2,其為一系列用于代碼生成的開放獲取大語言模型(LLM
    發(fā)表于 02-29 11:12 ?233次閱讀
    ServiceNow、Hugging Face 和 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>發(fā)布</b>全新開放獲取 <b class='flag-5'>LLM</b>,助力<b class='flag-5'>開發(fā)</b>者運用生成式 AI 構(gòu)建企業(yè)應(yīng)用

    TensorRT LLM加速Gemma!NVIDIA與谷歌牽手,RTX助推AI聊天

    NVIDIA今天在其官方博客中表示,今天與谷歌合作,在所有NVIDIA AI平臺上為Gemma推出了優(yōu)化。
    的頭像 發(fā)表于 02-23 09:42 ?571次閱讀
    <b class='flag-5'>TensorRT</b> <b class='flag-5'>LLM</b>加速Gemma!<b class='flag-5'>NVIDIA</b>與谷歌牽手,RTX助推AI聊天

    利用NVIDIA產(chǎn)品技術(shù)組合提升用戶體驗

    本案例通過利用NVIDIA TensorRT-LLM加速指令識別深度學(xué)習(xí)模型,并借助NVIDIA Triton推理服務(wù)器在NVIDIA V100 GPU上進行高效部署,幫助必優(yōu)科技的文
    的頭像 發(fā)表于 01-17 09:30 ?658次閱讀

    使用NVIDIA TensorRT-LLM支持CodeFuse-CodeLlama-34B的int4量化和推理優(yōu)化實踐

    CodeFuse是由螞蟻集團開發(fā)的代碼語言大模型,旨在支持整個軟件開發(fā)生命周期,涵蓋設(shè)計、需求、編碼、測試、部署、運維等關(guān)鍵階段。
    的頭像 發(fā)表于 01-12 18:13 ?1092次閱讀

    Torch TensorRT是一個優(yōu)化PyTorch模型推理性能的工具

    那么,什么是Torch TensorRT呢?Torch是我們大家聚在一起的原因,它是一個端到端的機器學(xué)習(xí)框架。而TensorRT則是NVIDIA的高性能深度學(xué)習(xí)推理軟件工具包。Torch Te
    的頭像 發(fā)表于 01-09 16:41 ?1588次閱讀
    Torch <b class='flag-5'>TensorRT</b>是一個優(yōu)化PyTorch模型推理性能的工具

    如何在 NVIDIA TensorRT-LLM 中支持 Qwen 模型

    的特點和優(yōu)勢。然而,這些工具往往未能充分發(fā)揮 GPU 的性能。 為了解決這些問題,NVIDIA 推出了一種全新的解決方案—— Tens
    的頭像 發(fā)表于 12-04 20:25 ?910次閱讀
    如何在 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT-LLM</b> 中支持 Qwen 模型