精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

模型復(fù)雜性日益增加,AI優(yōu)化的硬件隨之出現(xiàn)

FPGA之家 ? 來源:英特爾FPGA ? 作者:英特爾FPGA ? 2021-06-16 17:00 ? 次閱讀

人工智能AI)模型的規(guī)模和復(fù)雜度以每年大約 10 倍的速度不斷增加,AI 解決方案提供商面臨著巨大的壓力,他們必須縮短產(chǎn)品上市時間,提高性能,快速適應(yīng)不斷變化的形勢。模型復(fù)雜性日益增加,AI 優(yōu)化的硬件隨之出現(xiàn)。

例如,近年來,圖形處理單元(GPU)集成了 AI 優(yōu)化的算法單元,以提高 AI 計算吞吐量。然而,隨著 AI 算法和工作負(fù)載的演變與發(fā)展,它們會展現(xiàn)出一些屬性,讓我們難以充分利用可用的 AI 計算吞吐量,除非硬件提供廣泛的靈活性來適應(yīng)這種算法變化。近期的論文表明,許多 AI 工作負(fù)載都難以實現(xiàn) GPU 供應(yīng)商報告的全部計算能力。即使對于高度并行的計算,如一般矩陣乘法(GEMM),GPU 也只能在一定規(guī)模的矩陣下實現(xiàn)高利用率。因此,盡管 GPU 在理論上提供較高的 AI 計算吞吐量(通常稱為“峰值吞吐量”),但在運行 AI 應(yīng)用時,實際性能可能低得多。

FPGA 可提供一種不同的 AI 優(yōu)化的硬件方法。與 GPU 不同,F(xiàn)PGA 提供獨特的精細(xì)化空間可重構(gòu)性。這意味著我們可以配置 FPGA 資源,以極為準(zhǔn)確的順序執(zhí)行精確的數(shù)學(xué)函數(shù),從而實施所需的操作。每個函數(shù)的輸出都可以直接路由到需要它的函數(shù)的輸入之中。這種方法支持更加靈活地適應(yīng)特定的 AI 算法和應(yīng)用特性,從而提高可用 FPGA 計算能力的利用率。此外,雖然 FPGA 需要硬件專業(yè)知識才能編程(通過硬件描述語言),但專門設(shè)計的軟核處理單元(也就是重疊結(jié)構(gòu)),允許 FPGA 以類似處理器的方式編程。FPGA 編程完全通過軟件工具鏈來完成,簡化了任何特定于 FPGA 的硬件復(fù)雜性。

FPGA與GPU架構(gòu)的背景

2020 年,英特爾 宣布推出首款 AI 優(yōu)化的 FPGA — 英特爾 Stratix 10 NX FPGA 器件。英特爾 Stratix 10 NX FPGA 包括 AI 張量塊,支持 FPGA 實現(xiàn)高達(dá) 143 INT8 和 286 INT4 峰值 AI 計算 TOPS 或 143 塊浮點 16(BFP16)和 286 塊浮點 12(BFP12)TFLOPS。最近的論文表明,塊浮點精度可為許多 AI 工作負(fù)載提供更高的精度和更低的消耗。NVIDIA GPU 同樣也提供張量核。但從架構(gòu)的角度來看,GPU 張量核和 FPGA AI 張量塊有很大的不同,如下圖所示。

GPU 和 FPGA 都有張量核心。FPGA 有可以在數(shù)據(jù)流內(nèi)外編織的軟邏輯

(左)GPU 數(shù)據(jù)從張量核心處理的內(nèi)存系統(tǒng)中讀取,寫回內(nèi)存系統(tǒng)。(右)FPGA 數(shù)據(jù)可以從內(nèi)存中讀取,但數(shù)據(jù)流可以并行安排到一個或多個張量核心。任意數(shù)量的張量核心都能以最小的傳輸開銷使用輸出。數(shù)據(jù)可以被寫回內(nèi)存或路由到其他任何地方

英特爾研究人員開發(fā)了一種名為神經(jīng)處理單元(NPU)的 AI 軟處理器。這種 AI 軟處理器適用于低延遲、低批量推理。它將所有模型權(quán)重保持在一個或多個連接的 FPGA 上以降低延遲,從而確保模型持久性。

NPU 重疊架構(gòu)和用于編程 NPU 軟核處理器的前端工具鏈高級概述

FPGA與GPU性能比較

本次研究的重點是計算性能。下圖比較了英特爾 Stratix 10 NX FPGA 上的 NPU 與 NVIDIA T4 和 V100 GPU 運行各種深度學(xué)習(xí)工作負(fù)載的性能,包括多層感知器(MLP)、一般矩陣向量乘法(GEMV)、遞歸神經(jīng)網(wǎng)絡(luò)(RNN)、長期短期記憶(LSTM)和門控循環(huán)單元(GRU)。GEMV 和 MLP 由矩陣大小來指定,RNN、LSTM 和 GRU 則通過大小和時間步長來指定。例如,LSTM-1024-16 工作負(fù)載表示包含 1024x1024 矩陣和 16 個時間步長的 LSTM。

NVIDIA V100 和 NVIDIA T4 與英特爾 Stratix 10 NX FPGA 上的 NPU 在不同批處理規(guī)模下的性能。虛線顯示 NPU 在批次大小可被 6 整除情況下的性能

從這些結(jié)果可以充分地看出,英特爾 Stratix 10 NX FPGA 不僅可以在低批次實時推理時實現(xiàn)比 GPU 高一個數(shù)量級的性能,還可以有效地進(jìn)行高批次實時推理。

由于架構(gòu)上的差異和靈活編程模型,英特爾 Stratix 10 NX FPGA 還可實現(xiàn)更出色的端到端性能。不會產(chǎn)生與 GPU 相同的開銷。

短序列和長序列時 RNN 工作負(fù)載的系統(tǒng)級執(zhí)行時間(越低越好)

結(jié)論

英特爾 Stratix 10 NX FPGA 采用高度靈活的架構(gòu),所實現(xiàn)的平均性能比 NVIDIA T4 GPU 和 NVIDIA V100 GPU 分別高 24 倍和 12 倍。

由于其較高的計算密度,英特爾 Stratix 10 NX FPGA 可為以實際可達(dá)到性能為重要指標(biāo)的高性能、延遲敏感型 AI 系統(tǒng)提供至關(guān)重要的功能。

原文標(biāo)題:實際性能超過GPU,英特爾?Stratix?10 NX FPGA如何助您在AI加速領(lǐng)域贏得先機?

文章出處:【微信公眾號:FPGA之家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1626

    文章

    21675

    瀏覽量

    601961
  • 英特爾
    +關(guān)注

    關(guān)注

    60

    文章

    9892

    瀏覽量

    171541
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30212

    瀏覽量

    268456

原文標(biāo)題:實際性能超過GPU,英特爾?Stratix?10 NX FPGA如何助您在AI加速領(lǐng)域贏得先機?

文章出處:【微信號:zhuyandz,微信公眾號:FPGA之家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    深度學(xué)習(xí)模型的魯棒優(yōu)化

    深度學(xué)習(xí)模型的魯棒優(yōu)化是一個復(fù)雜但至關(guān)重要的任務(wù),它涉及多個方面的技術(shù)和策略。以下是一些關(guān)鍵的優(yōu)化方法: 一、數(shù)據(jù)預(yù)處理與增強 數(shù)據(jù)清洗
    的頭像 發(fā)表于 11-11 10:25 ?158次閱讀

    AI模型在圖像識別中的優(yōu)勢

    模型借助高性能的計算硬件優(yōu)化的算法,能夠在短時間內(nèi)完成對大量圖像數(shù)據(jù)的處理和分析,顯著提高了圖像識別的效率。 識別準(zhǔn)確 :通過深度學(xué)習(xí)和計算機視覺技術(shù),
    的頭像 發(fā)表于 10-23 15:01 ?396次閱讀

    AI模型的性能優(yōu)化方法

    AI模型的性能優(yōu)化是一個復(fù)雜而關(guān)鍵的任務(wù),涉及多個方面和策略。以下是一些主要的性能優(yōu)化方法: 一、模型
    的頭像 發(fā)表于 10-23 15:01 ?484次閱讀

    借助NVIDIA Metropolis微服務(wù)構(gòu)建視覺AI應(yīng)用

    伴隨著視覺 AI 復(fù)雜性增加,精簡的部署解決方案已成為優(yōu)化空間和流程的關(guān)鍵。NVIDIA 能夠加快企業(yè)的開發(fā)速度,借助 NVIDIA Metropolis
    的頭像 發(fā)表于 09-09 09:46 ?278次閱讀
    借助NVIDIA Metropolis微服務(wù)構(gòu)建視覺<b class='flag-5'>AI</b>應(yīng)用

    新思科技探索AI+EDA的更多可能

    芯片設(shè)計復(fù)雜性的快速指數(shù)級增長給開發(fā)者帶來了巨大的挑戰(zhàn),整個行業(yè)不僅要向埃米級發(fā)展、Muiti-Die系統(tǒng)和工藝節(jié)點遷移所帶來的挑戰(zhàn),還需要應(yīng)對愈加緊迫的上市時間目標(biāo)、不斷增加的制造測試成本以及人才短缺等問題。早在AI大熱之前,
    的頭像 發(fā)表于 08-29 11:19 ?476次閱讀

    中軟國際大模型運營管理系統(tǒng)推動AI商業(yè)化

    模型作為AI技術(shù)發(fā)展的新趨勢,已成為“千行百業(yè)”推動業(yè)務(wù)增長與創(chuàng)新的關(guān)鍵技術(shù)和策略。然而,隨著AI模型規(guī)模的增加,對于人工智能計算中心(
    的頭像 發(fā)表于 08-27 17:01 ?674次閱讀
    中軟國際大<b class='flag-5'>模型</b>運營管理系統(tǒng)推動<b class='flag-5'>AI</b>商業(yè)化

    ai模型和算法有什么區(qū)別

    復(fù)雜的問題。這些模型通常需要大量的數(shù)據(jù)和計算資源來訓(xùn)練和優(yōu)化。例如,深度學(xué)習(xí)中的神經(jīng)網(wǎng)絡(luò)就是一種典型的AI模型。 算法則是一系列解決問題的
    的頭像 發(fā)表于 07-16 10:09 ?1573次閱讀

    ai模型ai框架的關(guān)系是什么

    AI模型AI框架是人工智能領(lǐng)域中兩個重要的概念,它們之間的關(guān)系密切且復(fù)雜AI模型的定義
    的頭像 發(fā)表于 07-16 10:07 ?4w次閱讀

    ai模型和傳統(tǒng)ai的區(qū)別在哪?

    的BERT模型使用了33億個參數(shù),而傳統(tǒng)AI模型通常只有幾千到幾百萬個參數(shù)。 模型復(fù)雜AI
    的頭像 發(fā)表于 07-16 10:06 ?1201次閱讀

    AI模型AI框架的關(guān)系

    在探討AI模型AI框架的關(guān)系時,我們首先需要明確兩者的基本概念及其在人工智能領(lǐng)域中的角色。AI模型通常指的是具有極大規(guī)模、高度
    的頭像 發(fā)表于 07-15 11:42 ?944次閱讀

    AI模型在MCU中的應(yīng)用

    機遇。將AI模型集成到MCU中,不僅提升了設(shè)備的智能化水平,還使得設(shè)備能夠執(zhí)行更復(fù)雜的任務(wù),實現(xiàn)自主決策和實時響應(yīng)。本文將從AI模型在MCU
    的頭像 發(fā)表于 07-12 10:24 ?798次閱讀

    軟件架構(gòu)搞好了,還用擔(dān)心代碼可讀差?

    硬件多樣:嵌入式系統(tǒng)常常面臨不同硬件平臺和設(shè)備的多樣,需要一個靈活的軟件架構(gòu)來適應(yīng)這些差異。軟件復(fù)雜性:隨著嵌入式系統(tǒng)功能的不斷
    的頭像 發(fā)表于 06-14 08:10 ?250次閱讀
    軟件架構(gòu)搞好了,還用擔(dān)心代碼可讀<b class='flag-5'>性</b>差?

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    ,生成能力則使其能生成新的、連貫的文本,而涌現(xiàn)則讓模型能生成未曾出現(xiàn)但邏輯上合理的內(nèi)容。從早期的統(tǒng)計模型到如今的大語言模型
    發(fā)表于 05-04 23:55

    防止AI模型被黑客病毒入侵控制(原創(chuàng))聆思大模型AI開發(fā)套件評測4

    在設(shè)計防止AI模型被黑客病毒入侵時,需要考慮到復(fù)雜的加密和解密算法以及模型的實現(xiàn)細(xì)節(jié),首先需要了解模型的結(jié)構(gòu)和實現(xiàn)細(xì)節(jié)。 以下是我使用P
    發(fā)表于 03-19 11:18

    NanoEdge AI的技術(shù)原理、應(yīng)用場景及優(yōu)勢

    ,可以減少數(shù)據(jù)在傳輸過程中被竊取或篡改的風(fēng)險,提高數(shù)據(jù)安全。 - 低能耗:通過優(yōu)化神經(jīng)網(wǎng)絡(luò)模型硬件設(shè)計,NanoEdge AI 可以在有
    發(fā)表于 03-12 08:09