精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA Triton 系列文章(6):安裝用戶端軟件

NVIDIA英偉達企業解決方案 ? 來源:未知 ? 2022-11-29 19:20 ? 次閱讀

在前面的文章中,已經帶著讀者創建好 Triton 的模型倉、安裝并執行 Triton 推理服務器軟件,接下來就是要安裝 Triton 用戶端軟件,對服務器提出推理請求(requests),才能觸發服務器執行推理計算的任務


由于用戶端的功能是在向服務器提出推理需求,本身并不參與計算,因此不用考慮設備性能或者是否裝載 GPU 設備,即便是一臺最基本的 Windows 上網本都能使用,只要安裝合適的用戶端軟件就可以。


為了適應更多種使用場景,Triton 用戶端支持 C++/Python/Java/GO 等通用性高的在編程語言,底層還支持 HTTP/REST 與 gRPC 通訊協議,甚至還支持 SSL/TLS 加密選項,以及多種在線壓縮(on-wire compression)算法,內容是相當豐富并且多元化,完整的內容可以在https://github.com/triton-inference-server/client 開源倉里找到,本文只先提供 Python 用戶端的部分。


與服務器的安裝方式類似,NVIDIA 提供以下 4 種安裝方式:


1. 源代碼編譯


這種方式需要從https://github.com/triton-inference-server/client 下載源代碼,執行步驟在https://github.com/triton-inference-server/client#build-using-cmake 環節,通常會遇到的麻煩是步驟繁瑣,并且出錯率較高,因此并不推薦使用這個方法。


2. 可執行文件


Triton 開發團隊為使用者提供編譯好的可執行文件,包括 Ubuntu 20.04、Jetpack 與 Windows 平臺,可以在 https://github.com/triton-inference-server/server/releases/上獲取,每個版本都會提供對應 NGC 容器的版本,如下圖:



然后到下面的“Assets”選擇合適的版本:



以裝載 Jetpack 5 的 Orin 為例,就下載 tritonserver2.26.0-jetpack5.0.2.tgz(1.13GB) 壓縮文件到本機上,然后解壓縮到指定目錄下就可以,例如 ${HOME}/triton 目錄,會生成 等 6 個目錄,用戶端的可執行文件在目錄下,目前有將近 30 個終端功能。


現在要使用 image_client 這個最基礎的識別終端軟件,對 qa/images/mug.jpg(下圖)這張圖片進行推理。



請先確認 Triton 服務器軟件已經啟動并且處于等待請求的狀態,現在請開啟另一個命令終端,輸入以下指令提交推理請求:


cd  ${HOME}/triton
./clients/bin/image_client-mdensenet_onnx-c3-sINCEPTIONqa/images/mug.jpg


這道指令使用 clients/bin/image_client 終端,請求服務器使用 densenet_onnx 推理模型,對 qa/images/mug.jpg(下圖)進行識別。這里的參數“-c 3”是要求識別的分類最多可以到 3 項,指令執行結果如下,表示正確識別圖像的 3 個可能分類:



其他終端軟件會在后面文章中說明。


3. Docker容器版用戶端


在安裝 Triton 服務器軟件一文中已經提過,可以在 NGC 服務器上可以找到 Triton 的相關鏡像,其中 year-xy-py3-sdk 里就有提供用戶端軟件。這里同樣在 Jetson AGX Orin 上用 22.09-py3-sdk 鏡像做示范,請先執行以下指令下載這個鏡像并進入這個容器:


dockerpull nvcr.io/nvidia/tritonserver:22.09-py3-sdk
docker run -it --rm --net=host nvcr.io/nvidia/tritonserver:22.09-py3-sdk


進入容器之后,執行以下指令進行圖像推理任務:


./install/bin/image_client-mdensenet_onnx-c3-sINCEPTION./images/mug.jpg

執行結果應該會看到如下截屏的內容,表示在這里對 Triton 服務器提出的推理請求,得到正確的計算結果。



同樣的,在容器內 install/bin 目錄下也有將近 30 個編譯好的終端可執行文件,內容與前一項壓縮文件所提供的內容是一致的,在下一篇文章中進行說明。


4. Python 版用戶端


由于 Python 是目前在深度學習領域中最重要的編程語言之一,NVIDIA 為 Triton 提供可直接安裝的 Python 庫,只要執行以下指令就能輕松安裝:


pip3  install  tritonclient[all]  attrdict  -i  https://pypi.tuna.tsinghua.edu.cn/simple


這個過程會安裝以下內容:


  • http

  • grpc[service_pb2,service_pb2_grpc,model_config_pb2]

  • utils[ Linux 發行版將包括shared_memory和cuda_shared_memory]


如果您在前面下載第 2 部分的壓縮文件并且解壓縮,在該目錄之下的 clients/python 里就提供 30 多個 Triton 的 Python 用戶端腳本;如果沒有下載前面的壓縮文件,現在可以執行以下指令去復制 Triton 項目的 client 開源倉:


git clone https://github.com/triton-inference-server/client


然后在 client 開源倉下的 src/python/examples 里有 30 多個 Triton 的 Python 用戶端腳本。


現在進到 Python 用戶端腳本的目錄里,執行以下指令:


python3  image_client.py  -m  inception_graphdef  -s  INCEPTION 
${HOME}/triton/server/qa/images/mug.jpg


執行后會顯示如下的結果:



得到推理的結果為“COFEE MUG”為正確的,表示 Triton 的 Python 用戶端使用環境是正確的。


以上介紹 4 種安裝 Triton 用戶端軟件的方式,本文只使用 image_client 這個最簡單的圖像分類用戶端工具,另外還有幾個比較重要的用戶端工具,后面會有針對性的深入講解與示范。


推薦閱讀

NVIDIA Jetson Nano 2GB 系列文章(1):開箱介紹

NVIDIA Jetson Nano 2GB 系列文章(2):安裝系統

NVIDIA Jetson Nano 2GB 系列文章(3):網絡設置及添加 SWAPFile 虛擬內存

NVIDIA Jetson Nano 2GB 系列文章(4):體驗并行計算性能

NVIDIA Jetson Nano 2GB 系列文章(5):體驗視覺功能庫



NVIDIA Jetson Nano 2GB 系列文章(6):安裝與調用攝像頭


NVIDIA Jetson Nano 2GB 系列文章(7):通過 OpenCV 調用 CSI/USB 攝像頭

NVIDIA Jetson Nano 2GB 系列文章(8):執行常見機器視覺應用


NVIDIA Jetson Nano 2GB 系列文章(9):調節 CSI 圖像質量

NVIDIA Jetson Nano 2GB 系列文章(10):顏色空間動態調節技巧

NVIDIA Jetson Nano 2GB 系列文章(11):你應該了解的 OpenCV

NVIDIA Jetson Nano 2GB 系列文章(12):人臉定位


NVIDIA Jetson Nano 2GB 系列文章(13):身份識別


NVIDIA Jetson Nano 2GB 系列文章(14):Hello AI World

NVIDIA Jetson Nano 2GB 系列文章(15):Hello AI World 環境安裝


NVIDIA Jetson Nano 2GB 系列文章(16):10行代碼威力



NVIDIA Jetson Nano 2GB 系列文章(17):更換模型得到不同效果

NVIDIA Jetson Nano 2GB 系列文章(18):Utils 的 videoSource 工具

NVIDIA Jetson Nano 2GB 系列文章(19):Utils 的 videoOutput 工具

NVIDIA Jetson Nano 2GB 系列文章(20):“Hello AI World” 擴充參數解析功能

NVIDIA Jetson Nano 2GB 系列文章(21):身份識別

NVIDIA Jetson Nano 2GB 系列文章(22):“Hello AI World” 圖像分類代碼

NVIDIA Jetson Nano 2GB 系列文章(23):“Hello AI World 的物件識別應用

NVIDIAJetson Nano 2GB 系列文章(24): “Hello AI World” 的物件識別應用

NVIDIAJetson Nano 2GB 系列文章(25): “Hello AI World” 圖像分類的模型訓練

NVIDIAJetson Nano 2GB 系列文章(26): “Hello AI World” 物件檢測的模型訓練

NVIDIAJetson Nano 2GB 系列文章(27): DeepStream 簡介與啟用

NVIDIAJetson Nano 2GB 系列文章(28): DeepStream 初體驗

NVIDIAJetson Nano 2GB 系列文章(29): DeepStream 目標追蹤功能

NVIDIAJetson Nano 2GB 系列文章(30): DeepStream 攝像頭“實時性能”

NVIDIAJetson Nano 2GB 系列文章(31): DeepStream 多模型組合檢測-1

NVIDIAJetson Nano 2GB 系列文章(32): 架構說明與deepstream-test范例

NVIDIAJetsonNano 2GB 系列文章(33): DeepStream 車牌識別與私密信息遮蓋

NVIDIA Jetson Nano 2GB 系列文章(34): DeepStream 安裝Python開發環境

NVIDIAJetson Nano 2GB 系列文章(35): Python版test1實戰說明

NVIDIAJetson Nano 2GB 系列文章(36): 加入USB輸入與RTSP輸出

NVIDIAJetson Nano 2GB 系列文章(37): 多網路模型合成功能

NVIDIAJetson Nano 2GB 系列文章(38): nvdsanalytics視頻分析插件

NVIDIAJetson Nano 2GB 系列文章(39): 結合IoT信息傳輸

NVIDIAJetson Nano 2GB 系列文章(40): Jetbot系統介紹

NVIDIAJetson Nano 2GB 系列文章(41): 軟件環境安裝

NVIDIAJetson Nano 2GB 系列文章(42): 無線WIFI的安裝與調試

NVIDIAJetson Nano 2GB 系列文章(43): CSI攝像頭安裝與測試

NVIDIAJetson Nano 2GB 系列文章(44): Jetson的40針引腳

NVIDIAJetson Nano 2GB 系列文章(45): I2C總線與PiOLED

NVIDIAJetson Nano 2GB 系列文章(46): 機電控制設備的安裝

NVIDIAJetson Nano 2GB 系列文章(47): 組裝過程的注意細節

NVIDIAJetson Nano 2GB 系列文章(48): 用鍵盤與搖桿控制行動

NVIDIAJetson Nano 2GB 系列文章(49): 智能避撞之現場演示

NVIDIAJetson Nano 2GB 系列文章(50): 智能避障之模型訓練

NVIDIAJetson Nano 2GB 系列文章(51): 圖像分類法實現找路功能

NVIDIAJetson Nano 2GB 系列文章(52): 圖像分類法實現找路功能

NVIDIAJetson Nano 2GB 系列文章(53): 簡化模型訓練流程的TAO工具套件

NVIDIA Jetson Nano 2GB 系列文章(54):NGC的內容簡介與注冊密鑰

NVIDIA Jetson Nano 2GB 系列文章(55):安裝TAO模型訓練工具

NVIDIA Jetson Nano 2GB 系列文章(56):啟動器CLI指令集與配置文件

NVIDIA Jetson Nano 2GB 系列文章(57):視覺類腳本的環境配置與映射

NVIDIA Jetson Nano 2GB 系列文章(58):視覺類的數據格式

NVIDIA Jetson Nano 2GB 系列文章(59):視覺類的數據增強

NVIDIA Jetson Nano 2GB 系列文章(60):圖像分類的模型訓練與修剪

NVIDIA Jetson Nano 2GB 系列文章(61):物件檢測的模型訓練與優化

NVIDIA Jetson Nano 2GB 系列文章(62):物件檢測的模型訓練與優化-2

NVIDIA Jetson Nano 2GB 系列文章(63):物件檢測的模型訓練與優化-3

NVIDIA Jetson Nano 2GB 系列文章(64):將模型部署到Jetson設備

NVIDIA Jetson Nano 2GB 系列文章(65):執行部署的 TensorRT 加速引擎

NVIDIA Jetson 系列文章(1):硬件開箱

NVIDIA Jetson 系列文章(2):配置操作系統

NVIDIA Jetson 系列文章(3):安裝開發環境

NVIDIA Jetson 系列文章(4):安裝DeepStream

NVIDIA Jetson 系列文章(5):使用Docker容器的入門技巧

NVIDIA Jetson 系列文章(6):使用容器版DeepStream

NVIDIA Jetson 系列文章(7):配置DS容器Python開發環境

NVIDIA Jetson 系列文章(8):用DS容器執行Python范例

NVIDIA Jetson 系列文章(9):為容器接入USB攝像頭

NVIDIA Jetson 系列文章(10):從頭創建Jetson的容器(1)

NVIDIA Jetson 系列文章(11):從頭創建Jetson的容器(2)

NVIDIA Jetson 系列文章(12):創建各種YOLO-l4t容器

NVIDIA Triton系列文章(1):應用概論

NVIDIA Triton系列文章(2):功能與架構簡介

NVIDIA Triton系列文章(3):開發資源說明

NVIDIA Triton系列文章(4):創建模型倉

NVIDIA Triton 系列文章(5):安裝服務器軟件


原文標題:NVIDIA Triton 系列文章(6):安裝用戶端軟件

文章出處:【微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3749

    瀏覽量

    90856

原文標題:NVIDIA Triton 系列文章(6):安裝用戶端軟件

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    智能電表用戶端口的折返限流應用說明

    電子發燒友網站提供《智能電表用戶端口的折返限流應用說明.pdf》資料免費下載
    發表于 09-13 09:43 ?0次下載
    智能電表<b class='flag-5'>用戶端</b>口的折返限流應用說明

    NVIDIA JetPack 6.0版本的關鍵功能

    NVIDIA JetPack SDK 支持 NVIDIA Jetson 模塊,為構建加速 AI 應用提供全面的解決方案。JetPack 6
    的頭像 發表于 09-09 10:18 ?355次閱讀
    <b class='flag-5'>NVIDIA</b> JetPack 6.0版本的關鍵功能

    NVIDIA助力提供多樣、靈活的模型選擇

    在本案例中,Dify 以模型中立以及開源生態的優勢,為廣大 AI 創新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton 推理服務器產品,為
    的頭像 發表于 09-09 09:19 ?440次閱讀

    NVIDIA 通過 Holoscan 為 NVIDIA IGX 提供企業軟件支持

    美敦力、SETI 協會以及領先制造商正在構建 NVIDIA IGX 系統,為 AI 在工業邊緣賦能。 ? NVIDIA6月2日宣布,集成NVIDIA Holoscan的
    的頭像 發表于 06-04 10:21 ?468次閱讀

    NVIDIA 通過 Holoscan 為 NVIDIA IGX 提供企業軟件支持,實現邊緣實時醫療、工業和科學 AI 應用

    美敦力、SETI協會以及領先的制造商正在構建? NVIDIA IGX 系統, 為 ?AI 在工業邊緣賦能 ? ? COMPUTEX — 2024 年 6 月 2 日 — NVIDIA 今日宣布,集成
    發表于 06-03 09:48 ?287次閱讀
      <b class='flag-5'>NVIDIA</b> 通過 Holoscan 為 <b class='flag-5'>NVIDIA</b> IGX 提供企業<b class='flag-5'>軟件</b>支持,實現邊緣實時醫療、工業和科學 AI 應用

    研華與英偉達深化合作, 成為NVIDIA AI Enterprise軟件全球分銷商

    )的軟件平臺。近日發布的NVIDIA AI Enterprise 5.0將為用戶提供一系列微服務,其中包括NVIDIA NIM。這是一套用于
    發表于 05-07 11:21 ?301次閱讀
    研華與英偉達深化合作, 成為<b class='flag-5'>NVIDIA</b> AI Enterprise<b class='flag-5'>軟件</b>全球分銷商

    牽手NVIDIA 元戎啟行模型將搭載 DRIVE Thor芯片

    NVIDIA的DRIVE Thor芯片適配公司的智能駕駛模型。據悉,元戎啟行是業內首批能用 DRIVE Thor芯片適配模型的企
    發表于 03-25 11:49 ?314次閱讀
    牽手<b class='flag-5'>NVIDIA</b> 元戎啟行<b class='flag-5'>端</b>到<b class='flag-5'>端</b>模型將搭載 DRIVE Thor芯片

    適用于35kV及以下新建或改擴建的用戶端Acrel-2000Z電力監控

    的組網方式。 應用場所: 適用于35kV及以下新建或改擴建的用戶端供配電自動化系統工程設計、施工和運行維護。 云平臺結構 云平臺功能 實時監測 直觀顯示配電網的運行狀態,實時監測各回路電參數信息,動態監視各配電回路有關故障、告警等信號。
    的頭像 發表于 03-08 16:56 ?286次閱讀
    適用于35kV及以下新建或改擴建的<b class='flag-5'>用戶端</b>Acrel-2000Z電力監控

    使用NVIDIA Triton推理服務器來加速AI預測

    這家云計算巨頭的計算機視覺和數據科學服務使用 NVIDIA Triton 推理服務器來加速 AI 預測。
    的頭像 發表于 02-29 14:04 ?547次閱讀

    在AMD GPU上如何安裝和配置triton

    最近在整理python-based的benchmark代碼,反過來在NV的GPU上又把Triton裝了一遍,發現Triton的github repo已經給出了對應的llvm的commit id以及對應的編譯細節,然后跟著走了一遍,也順利的
    的頭像 發表于 02-22 17:04 ?2237次閱讀
    在AMD GPU上如何<b class='flag-5'>安裝</b>和配置<b class='flag-5'>triton</b>?

    蘋果MacOS惡意軟件借破解版安裝包獲取用戶信息

    聰明的犯罪分子通常會提供一個名為“Activator”的程序及所需安裝的應用軟件。偽造的安裝程序不會直接運行,轉而呈現詳細的說明指導用戶提取應用至/Applications/,并啟動A
    的頭像 發表于 01-31 17:08 ?940次閱讀

    ACRELADL系列多功能電能表在迪拜大廈EMS中的應用

    in Dubai Building’s EMS 摘要:用戶端消耗著整個電網80%的電能,用戶端智能化用電管理對用戶可靠、安全、節約用電有十分重要的意義。構建智能用電服務體系,推廣用戶端
    的頭像 發表于 01-30 14:27 ?330次閱讀
    ACRELADL<b class='flag-5'>系列</b>多功能電能表在迪拜大廈EMS中的應用

    利用NVIDIA產品技術組合提升用戶體驗

    本案例通過利用NVIDIA TensorRT-LLM加速指令識別深度學習模型,并借助NVIDIA Triton推理服務器在NVIDIA V100 GPU上進行高效部署,幫助必優科技的文
    的頭像 發表于 01-17 09:30 ?658次閱讀

    什么是Triton-shared?Triton-shared的安裝和使用

    經過前面幾章關于triton在nv gpu上調優的講解,我們這章開始來看看triton的一個third_party庫,該庫是為了讓triton去支持更多其他的backend。該項目的地址如下所示
    的頭像 發表于 12-19 09:47 ?1125次閱讀
    什么是<b class='flag-5'>Triton</b>-shared?<b class='flag-5'>Triton</b>-shared的<b class='flag-5'>安裝</b>和使用

    Triton編譯器的原理和性能

    為Torch inductor的基本組件,以合成針對GPU的高效內核。與傳統庫使用相比,這具有多種優勢。它允許創建各種各樣的融合,它可以獨立調整,并且它的內存占用更小。本次演講將介紹Triton編譯器,并描述使其能夠以最少的用戶努力生成閃電般快速內核的過程。
    的頭像 發表于 12-16 11:22 ?2768次閱讀
    <b class='flag-5'>Triton</b>編譯器的原理和性能