精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

螞蟻鏈AIoT團隊與NVIDIA合作加速AI推理

NVIDIA英偉達 ? 來源:NVIDIA英偉達 ? 作者:NVIDIA英偉達 ? 2022-09-09 09:53 ? 次閱讀

螞蟻鏈 AIoT 團隊與 NVIDIA 合作,將量化感知訓練(QAT)技術應用于深度學習模型性能優化中,并通過 NVIDIA TensorRT 高性能推理 SDK 進行高效率部署, 通過 INT8 推理, 吞吐量提升了 3 倍, 助力螞蟻鏈版權 AI 平臺中的模型推理服務大幅降本增效。

依托于螞蟻鏈自研的區塊鏈和 AI 技術,以及金融級的加密算法能力和云計算能力的加持,螞蟻鏈版權 AI 平臺能夠為數字媒體時代的內容管理方、內容平臺方以及創作者提供一站式的版權保護能力。作為螞蟻鏈版權平臺的核心能力,AI 技術可以快速提取音視頻及圖像特征,在短時間內完成對相似內容的自動識別和判斷。得益于 NVIDIA 完善的軟硬件生態,螞蟻鏈團隊除了可以方便的在云端 GPU 部署深度學習模型推理服務,在進一步的合作中,雙方亦成功將其 TensorRT 支持的業界領先的 INT8-QAT 技術應用到版權保護業務模型上,對 AI 模型的推理效率進行大幅度優化,實現了在幾乎精度無損的情況下,單 GPU 上的吞吐量提升約 300%。

利用深度學習模型高效且自動化地進行相似內容識別是螞蟻鏈版權 AI 平臺的一項關鍵技術能力,這對 AI 模型研發提出了較高的技術挑戰。一方面,多媒體版權保護業務場景中作品侵權的類型復雜而多變, 為了到達高召回率和低虛警率的效果精度,螞蟻鏈團隊需采用較為復雜的算法模型方案;而另一方面,版權場景中高吞吐、低成本的需求又對模型提出了性能方面的挑戰。換言之,算法模型需要的存算資源必須有所限制、推理性能必須較高,而一般情況下,這與模型的效果要求是矛盾的,因為深度學習模型的效果往往與模型的尺寸和所需算力正相關。而這些復雜而又多維的業務需求,也確實給團隊的算法研發和優化工作,帶來了相當大的挑戰。

因此,螞蟻鏈團隊將算法研發拆解為不同的流程以解決不同維度的業務需求。簡而言之,就是優先以滿足業務效果指標為目的研發模型,隨后借助模型壓縮技術對模型存算需求進行優化,而第二部分工作實現,則需仰賴 NVIDIA 相關軟硬件生態對于高性能AI模型推理加速的優秀支持。一方面,NVIDIA GPU 所提供的強大并行算力以及 INT8 Tensor Core 提供的整型計算能力,為深度學習模型推理的高效實現奠定了基礎;另一方面,NVIDIA TensorRT 8 SDK 中對模型計算圖的高效融合,以及對于新型模型結構的支持和優化(例如 QAT 所采用的 QDQ 結構以及 transformer-based 模型)讓我們可以在 PyTorch 模型的基礎上生成高效的量化推理模型。其中,QAT 作為此項目模型性能優化的重要技術,最大的優點莫過于可以在大幅提升推理速度的同時,做到幾乎完全消弭量化網絡整型計算相比浮點網絡數值精度差異帶來的算法效果損失。而近年來,隨著 NVIDIA 對相關軟硬件生態的對 QAT 技術的支持日臻完善,螞蟻鏈團隊希望能藉由 NVIDIA 相關的軟硬件生態,將 QAT 技術應用到螞蟻鏈版權 AI 項目中,以滿足嚴苛的業務需求。

基于以上挑戰,螞蟻鏈 AIoT 技術部與 NVIDIA 技術專家合作,引入 QAT 技術對深度學習模型進行性能優化,并將模型轉換為 TensorRT 引擎部署至 NVIDIA T4 GPU 進行在線推理。

首先,團隊使用 QAT 技術對算法模型以“偽量化”模式進行微調,使模型得以在 INT8 整型推理模式下在算法效果指標上幾乎沒有損失。具體實現方案主要包括:使用 NVIDIA PyTorch Quantization 工具在模型中一些特定位置插入量化/反量化節點,在原模型的基礎上構造一個“偽量化”模型。緊接著,使用該“偽量化”模型在原任務上進行一定輪數的微調,使模型參數在受到量化誤差擾動的同時依然可以收斂到一個局部最優,最終最小化量化推理對模型算法指標帶來的負面影響。實踐中,螞蟻鏈團隊通過 QAT 技術可以將 INT8 模型與單精度模型的算法指標的相對差距縮小到 0.2% 以內,做到了算法效果幾乎無損的模型量化。

隨后,則需要將微調完成的 QAT 模型轉換為真正的 INT8 版本模型部署到線上生產環境中。這一流程主要依賴 NVIDIA 提供的 TensorRT 高性能推理框架,相較其他部署框架,TensorRT 在 NVIDIA GPU 上表現出巨大的性能優勢:一方面通過 graph fusion,kernel tuning 等功能,可以自動化精簡網絡結構,為模型各層的不同 op 尋找最優 CUDA kernel 等優化操作;更重要的是,TensorRT 8.0 開始,添加了針對“偽量化”節點的自動化解析和融合功能,使 QAT 模型落地的門檻大大降低,讓 QAT 模型真正有可能在部署環境中展現出近似 INT8 后量化模型的極高推理性能。實踐中,采用 INT8-QAT 的模型做到了比單精度模型約 300% 的單位時間吞吐提升,極大提高了模型推理服務的效率;同時,量化模型更低的顯存占用也為模型部署帶來了更高的靈活性。

借助 NVIDIA 在高性能模型推理方面完善的軟硬件生態,螞蟻鏈團隊得以使用 INT8-QAT 技術大幅優化螞蟻鏈版權 AI 平臺中模型推理服務的效率,幫助系統整體降本增效。300% 的推理速度提升,以及算法指標幾乎無損的特性,讓此項目的 AI 模型可以做到兼顧效果與性能,幫助螞蟻鏈版權 AI 平臺在業界樹立技術優勢。

“版權保護是一個富有挑戰的技術領域,互聯網內容類型多樣、隱匿性強、易復制與編輯等特點對我們提出了諸多挑戰。螞蟻鏈從 2019 年發布鵲鑿版權保護平臺以來,在音視圖文的侵權檢索、侵權比對與定位方面做了大量深入的研究工作。我們 AIoT 團隊在 2022 年世界知識產權日向公眾發布了螞蟻鏈版權 AI 計算引擎,可以對相似內容的提取精確到幀,直接以秒為單位反饋比對結果。這種細顆粒度的識別能力極大提高了下游工作效率,同時也需要我們充分探索和利用 NVIDIA INT8-QAT 等加速技術,在效果和性能之間達到最佳平衡。接下去我們還會面向低成本高性能的版權 AI 算法演進,讓技術普惠更多的普通創作者。”螞蟻鏈 AIoT 高級算法專家張曉博與錢烽表示。

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4935

    瀏覽量

    102809
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4700

    瀏覽量

    128695
  • AI
    AI
    +關注

    關注

    87

    文章

    30106

    瀏覽量

    268399
  • 英偉達
    +關注

    關注

    22

    文章

    3743

    瀏覽量

    90830

原文標題:NVIDIA 攜手螞蟻鏈實現 INT8 QAT 技術加速 AI 推理,打造新一代版權保護平臺

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    NVIDIA與軟銀集團合作加速日本主權AI計劃

    NVIDIA 宣布與軟銀集團開展一系列合作,旨在加速日本主權 AI 計劃,并進一步提升日本在全球的技術領先優勢,同時為全球電信運營商開辟數十億美元的
    的頭像 發表于 11-19 15:49 ?194次閱讀

    NVIDIA加速AI在日本各行各業的應用

    企業借助基于 NVIDIA AI Enterprise 與 Omniverse 工業 AI 構建的創新中心和服務加速 AI 轉型。
    的頭像 發表于 11-19 15:45 ?146次閱讀

    賴耶科技通過NVIDIA AI Enterprise平臺打造超級AI工廠

    NVIDIA 技術團隊保持合作。賴耶科技通過NVIDIA AI Enterprise平臺打造的超級
    的頭像 發表于 11-19 14:55 ?230次閱讀

    日本企業借助NVIDIA產品加速AI創新

    日本領先企業和大學正在使用 NVIDIA NeMo、NIM 微服務和 NVIDIA Isaac 加速 AI 創新。
    的頭像 發表于 11-19 14:34 ?165次閱讀

    印度頭部IT企業與NVIDIA合作加速AI采用

    Infosys、TCS、Tech Mahindra 和 Wipro 這四家公司的近 50 萬名開發者和顧問使用 NVIDIA AI Enterprise 軟件設計和部署 AI 智能體,并使用
    的頭像 發表于 10-29 15:08 ?291次閱讀

    NVIDIA助力麗蟾科技打造AI訓練與推理加速解決方案

    麗蟾科技通過 Leaper 資源管理平臺集成 NVIDIA AI Enterprise,為企業和科研機構提供了一套高效、靈活的 AI 訓練與推理加速
    的頭像 發表于 10-27 10:03 ?163次閱讀
    <b class='flag-5'>NVIDIA</b>助力麗蟾科技打造<b class='flag-5'>AI</b>訓練與<b class='flag-5'>推理</b><b class='flag-5'>加速</b>解決方案

    NVIDIA與思科合作打造企業級生成式AI基礎設施

    NVIDIA 加速計算平臺、NVIDIA AI Enterprise 軟件和 NVIDIA NIM
    的頭像 發表于 10-10 09:35 ?287次閱讀

    英偉達推出全新NVIDIA AI Foundry服務和NVIDIA NIM推理微服務

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務和 NVIDIA NIM 推理微服務,與同樣剛推出的 Llama 3.1
    的頭像 發表于 07-25 09:48 ?668次閱讀

    NVIDIA推出NVIDIA AI Computing by HPE加速生成式 AI 變革

    簡化 AI 創造價值的過程,加速生成式 AI 的發展步伐。 NVIDIA AI Computing by HPE 由 HPE 與
    的頭像 發表于 06-20 17:36 ?677次閱讀

    MediaTek與NVIDIA TAO加速物聯網邊緣AI應用發展

    在即將到來的COMPUTEX 2024科技盛會上,全球知名的芯片制造商MediaTek宣布了一項重要合作——將NVIDIA的TAO(TensorRT Accelerated Optimizer)與其NeuroPilot SDK(軟件開發工具包)集成,共同推動邊緣
    的頭像 發表于 06-12 14:49 ?448次閱讀

    英偉達推出AI模型推理服務NVIDIA NIM

    英偉達近日宣布推出一項革命性的AI模型推理服務——NVIDIA NIM。這項服務將極大地簡化AI模型部署過程,為全球的2800萬英偉達開發者提供前所未有的便利。
    的頭像 發表于 06-04 09:15 ?643次閱讀

    英特爾助力京東云用CPU加速AI推理,以大模型構建數智化供應

    英特爾助力京東云用CPU加速AI推理,以大模型構建數智化供應
    的頭像 發表于 05-27 11:50 ?500次閱讀
    英特爾助力京東云用CPU<b class='flag-5'>加速</b><b class='flag-5'>AI</b><b class='flag-5'>推理</b>,以大模型構建數智化供應<b class='flag-5'>鏈</b>

    利用NVIDIA組件提升GPU推理的吞吐

    本實踐中,唯品會 AI 平臺與 NVIDIA 團隊合作,結合 NVIDIA TensorRT 和 NVI
    的頭像 發表于 04-20 09:39 ?643次閱讀

    NVIDIA和谷歌云宣布開展一項新的合作加速AI開發

    NVIDIA 和谷歌云宣布開展一項新的合作,以幫助全球初創企業加速創建生成式 AI 應用和服務。
    的頭像 發表于 04-11 14:03 ?468次閱讀

    使用NVIDIA Triton推理服務器來加速AI預測

    這家云計算巨頭的計算機視覺和數據科學服務使用 NVIDIA Triton 推理服務器來加速 AI 預測。
    的頭像 發表于 02-29 14:04 ?545次閱讀