精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA TensorRT 8.2將推理速度提高6倍

星星科技指導員 ? 來源:NVIDIA ? 作者:About Jay Rodge ? 2022-03-31 17:10 ? 次閱讀

NVIDIA 發布了 TensorRT 8.2 ,對十億參數 NLU 模型進行了優化。其中包括 T5 和 GPT-2 ,用于翻譯和文本生成,使實時運行 NLU 應用程序成為可能。

TensorRT 是一款高性能的深度學習推理優化器和運行時,為人工智能應用程序提供低延遲、高吞吐量推理。 TensorRT 用于醫療、汽車、制造、互聯網/電信服務、金融服務和能源等多個行業。

PyTorch 和 TensorFlow 是擁有數百萬用戶的最流行的深度學習框架。新的 TensorRT 框架集成現在在 PyTorch 和 TensorFlow 中提供了一個簡單的 API ,并提供了強大的 FP16 和 INT8 優化,從而將推理速度提高了 6 倍。

亮點包括

TensorRT 8.2:T5 和 GPT-2 的優化運行實時翻譯和摘要,與 CPU 相比,性能提高了 21 倍。

TensorRT 8.2 :適用于使用 Windows 的開發人員的簡單 Python API 。

Torch TensorRT:PyTorch 的集成與 GPU 上的框架內推理相比,僅需一行代碼即可提供高達 6 倍的性能。

TensorFlow TensorRT:TensorFlow 與 TensorRT 的集成提供了比使用一行代碼在 GPU 上進行框架內推理快 6 倍的性能。

資源

Torch- TensorRT 在 NGC catalog 的 PyTorch 容器中提供。

TensorFlow- TensorRT 目前可從 NGC catalog 的 TensorFlow 容器中獲得。

TensorRT 免費提供給 NVIDIA 開發程序 的成員。

在 TensorRT 產品頁面了解更多信息

關于作者

About Jay Rodge

Jay Rodge 是 NVIDIA 的產品營銷經理,負責深入學習和推理產品,推動產品發布和產品營銷計劃。杰伊在芝加哥伊利諾伊理工學院獲得計算機科學碩士學位,主攻計算機視覺和自然語言處理。在 NVIDIA 之前,杰伊是寶馬集團的人工智能研究實習生,為寶馬最大的制造廠使用計算機視覺解決問題。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4939

    瀏覽量

    102815
  • 互聯網
    +關注

    關注

    54

    文章

    11105

    瀏覽量

    103013
  • 深度學習
    +關注

    關注

    73

    文章

    5492

    瀏覽量

    120975
收藏 人收藏

    評論

    相關推薦

    TensorRT-LLM低精度推理優化

    本文分享 TensorRT-LLM 中低精度量化內容,并從精度和速度角度對比 FP8 與 INT8。首先介紹性能,包括速度和精度。其次,介紹量化工具
    的頭像 發表于 11-19 14:29 ?158次閱讀
    <b class='flag-5'>TensorRT</b>-LLM低精度<b class='flag-5'>推理</b>優化

    魔搭社區借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區是中國最具影響力的模型開源社區,致力給開發者提供模型即服務的體驗。魔搭社區利用NVIDIA TensorRT-LLM,大大提高了大語言模型的推理性能,方便了模型應用部署,
    的頭像 發表于 08-23 15:48 ?387次閱讀

    英偉達推出全新NVIDIA AI Foundry服務和NVIDIA NIM推理微服務

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務和 NVIDIA NIM 推理微服務,與同樣剛推出的 Llama 3.1 系列開源模型一起,為全球企業的生成式 AI
    的頭像 發表于 07-25 09:48 ?671次閱讀

    LLM大模型推理加速的關鍵技術

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型在處理復雜任務時的效率和響應速度。以下是對LLM大模型推理加速關鍵技術的詳細探討,內容
    的頭像 發表于 07-24 11:38 ?772次閱讀

    MediaTek與NVIDIA TAO加速物聯網邊緣AI應用發展

    在即將到來的COMPUTEX 2024科技盛會上,全球知名的芯片制造商MediaTek宣布了一項重要合作——NVIDIA的TAO(TensorRT Accelerated Optimizer)與其NeuroPilot SDK(
    的頭像 發表于 06-12 14:49 ?448次閱讀

    英偉達推出AI模型推理服務NVIDIA NIM

    英偉達近日宣布推出一項革命性的AI模型推理服務——NVIDIA NIM。這項服務極大地簡化AI模型部署過程,為全球的2800萬英偉達開發者提供前所未有的便利。
    的頭像 發表于 06-04 09:15 ?644次閱讀

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    大型語言模型(LLM)和專家混合(MoE)模型的推理過程。 第二代Transformer引擎采用8位浮點(FP8)和新的精度等技術,大型語言模型如GPT-MoE-1.8T的訓練速度提高
    發表于 05-13 17:16

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個開源庫,用于優化從 PC 到云端的
    的頭像 發表于 04-28 10:36 ?487次閱讀

    NVIDIA全面加快Meta Llama 3的推理速度

    Meta 最新開源大語言模型采用 NVIDIA 技術構建,其經過優化后可在云、數據中心、邊緣和 PC 的 NVIDIA GPU 上運行。
    的頭像 發表于 04-23 09:52 ?422次閱讀

    利用NVIDIA組件提升GPU推理的吞吐

    本實踐中,唯品會 AI 平臺與 NVIDIA 團隊合作,結合 NVIDIA TensorRTNVIDIA Merlin HierarchicalKV(HKV)
    的頭像 發表于 04-20 09:39 ?645次閱讀

    NVIDIA cuOpt算法路徑優化求解速度提高100

    NVIDIA cuOpt 是一個用于解決復雜路徑問題的加速優化引擎。它能高效解決不同方面的問題,如休息時間、等待時間、多個車輛成本和時間矩陣、多個目標、訂單-車輛匹配、車輛起始和結束位置、車輛起始和結束時間等。
    的頭像 發表于 04-19 10:09 ?394次閱讀
    <b class='flag-5'>NVIDIA</b> cuOpt算法<b class='flag-5'>將</b>路徑優化求解<b class='flag-5'>速度</b><b class='flag-5'>提高</b>100<b class='flag-5'>倍</b>

    使用NVIDIA Triton推理服務器來加速AI預測

    這家云計算巨頭的計算機視覺和數據科學服務使用 NVIDIA Triton 推理服務器來加速 AI 預測。
    的頭像 發表于 02-29 14:04 ?547次閱讀

    利用NVIDIA產品技術組合提升用戶體驗

    本案例通過利用NVIDIA TensorRT-LLM加速指令識別深度學習模型,并借助NVIDIA Triton推理服務器在NVIDIA V1
    的頭像 發表于 01-17 09:30 ?653次閱讀

    Torch TensorRT是一個優化PyTorch模型推理性能的工具

    那么,什么是Torch TensorRT呢?Torch是我們大家聚在一起的原因,它是一個端到端的機器學習框架。而TensorRT則是NVIDIA的高性能深度學習推理軟件工具包。Torc
    的頭像 發表于 01-09 16:41 ?1526次閱讀
    Torch <b class='flag-5'>TensorRT</b>是一個優化PyTorch模型<b class='flag-5'>推理</b>性能的工具

    如何在 NVIDIA TensorRT-LLM 中支持 Qwen 模型

    背景介紹 大語言模型正以其驚人的新能力推動人工智能的發展,擴大其應用范圍。然而,由于這類模型具有龐大的參數規模,部署和推理的難度和成本極高,這一挑戰一直困擾著 AI 領域。此外,當前存在大量支持模型
    的頭像 發表于 12-04 20:25 ?897次閱讀
    如何在 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM 中支持 Qwen 模型