精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何選擇高效的深度學(xué)習(xí)硬件?剖析GPU、FPGA、ASIC和DSP

電子工程師 ? 來(lái)源:未知 ? 作者:李倩 ? 2018-11-19 10:20 ? 次閱讀

深度學(xué)習(xí)最近取得的成功勢(shì)不可擋:從圖像分類和語(yǔ)音識(shí)別到圖片標(biāo)注、理解視覺(jué)場(chǎng)景、視頻概述、語(yǔ)言翻譯、繪畫(huà),甚至是生成圖像、語(yǔ)音、聲音和音樂(lè)!隨著我們的家變得越來(lái)越智能,你會(huì)發(fā)現(xiàn)許多設(shè)備都會(huì)需要連續(xù)地使用深度學(xué)習(xí)應(yīng)用、收集和處理數(shù)據(jù)。

所以我們需要新的硬件,一個(gè)比 Intel Xeon 所驅(qū)動(dòng)的服務(wù)器更加高效的硬件。一個(gè)英特爾服務(wù)器 CPU 可能會(huì)消耗 100-150 瓦功率并需要一個(gè)有著冷卻裝置的超大系統(tǒng)來(lái)支持其性能的正常發(fā)揮。

還有哪些其它的選擇?

圖形處理器GPU 現(xiàn)場(chǎng)可編程的邏輯器件、FPGA(現(xiàn)場(chǎng)可編程門陣列/Field-Programmable Gate Array) 定制芯片、特殊應(yīng)用型集成電路ASIC、[**芯片**](http://pubads.g.doubleclick.net/gampad/clk?id=132505090&iu=/122049170/TEXT_AD)系統(tǒng)或 [**SoC**](http://pubads.g.doubleclick.net/gampad/clk?id=132505090&iu=/122049170/TEXT_AD) 數(shù)字信號(hào)處理器、DSP 未來(lái)的、外星人發(fā)明的、由新的物理定律所發(fā)展出的技術(shù)

GPU

GPU 最早是為生成基于多邊形網(wǎng)絡(luò)的計(jì)算機(jī)圖形而設(shè)計(jì)的。在最近幾年,由于近來(lái)計(jì)算機(jī)游戲和圖形引擎領(lǐng)域的需求和復(fù)雜度需要,GPU 積累了強(qiáng)大的處理性能。英偉達(dá)是 GPU 領(lǐng)域的領(lǐng)軍者,能生產(chǎn)有數(shù)千個(gè)內(nèi)核的處理器,這些內(nèi)核的設(shè)計(jì)工作效率可以達(dá)到 100%。實(shí)際上這些處理器也非常適用于運(yùn)行神經(jīng)網(wǎng)絡(luò)和矩陣乘法方面的計(jì)算。注意,矩陣向量的乘法運(yùn)算被認(rèn)為是「尷尬的并行(embarrassingly parallel)」,因?yàn)樗梢酝ㄟ^(guò)簡(jiǎn)單的算法擴(kuò)展被并行化(它們?nèi)鄙俜种б蚨梢员苊饩彺?a target="_blank">信息丟失)。

Titan X 是訓(xùn)練深度學(xué)習(xí)模型的一個(gè)最得力的助手。它擁有 3500 多個(gè)內(nèi)核,每秒能夠執(zhí)行超過(guò) 11 萬(wàn)億次浮點(diǎn)運(yùn)算。更多測(cè)試性能方面的信息請(qǐng)參考這里(https://github.com/soumith/convnet-benchmarks)。

由于 GPU 的超多核(~3500 個(gè),對(duì)比 Intel Xeon 的 16 個(gè)/ Xeon Phi 的 32 個(gè)),英特爾的 CPU 和英偉達(dá)的 GPU 之間的競(jìng)爭(zhēng)助長(zhǎng)了后者的發(fā)展,使其 GPU 比 CPU 在時(shí)鐘頻率快 2~3 倍。GPU 核是更為復(fù)雜(分支預(yù)測(cè)和流程)的 CPU 核的流線型版本,但是前者許多都支持更高級(jí)別的并行運(yùn)算,因而擁有更好的性能。

這種 GPU 很擅長(zhǎng)訓(xùn)練深度學(xué)習(xí)系統(tǒng)——卷積神經(jīng)網(wǎng)絡(luò)或者循環(huán)神經(jīng)網(wǎng)絡(luò)。它們可以在僅僅幾毫秒之內(nèi)就運(yùn)行一批 128 或 256 張圖像。但是它們同時(shí)也會(huì)消耗大約 250 瓦的功率并且需要一個(gè)完整的計(jì)算機(jī)來(lái)支持運(yùn)行,這又消耗了額外的 150 瓦的功率。一個(gè)高性能的 GPU 系統(tǒng)至少需要消耗 400 瓦的功率。

這并不適用于增強(qiáng)現(xiàn)實(shí)眼鏡、無(wú)人機(jī)手機(jī)、移動(dòng)設(shè)備和小型機(jī)器人。甚至對(duì)于未來(lái)的消費(fèi)級(jí)自動(dòng)駕駛汽車來(lái)說(shuō)也是不可接受的。

英偉達(dá)正在致力于開(kāi)發(fā)效率更高的器件,比如 Tegra TX1、TX2(深度神經(jīng)網(wǎng)絡(luò)需要 12 瓦的能耗和每秒 ~100 千兆次浮點(diǎn)運(yùn)算的性能,TX2 需要的更多)和更強(qiáng)大的 Drive PX(250 瓦,與一個(gè) Titan X 的消耗量差不多)。

這里還要注意,在自動(dòng)駕駛汽車和智能攝像機(jī)中,直播視頻是必要的而圖像批處理是不可能實(shí)現(xiàn)的,因?yàn)橐曨l需要針對(duì)及時(shí)響應(yīng)進(jìn)行實(shí)時(shí)處理。

一般 GPU 的水平大約是 5 G-flops/s per W。如果我們想在移動(dòng)系統(tǒng)中部署深度學(xué)習(xí)解決方案,那我們還需要更好的方法!

FPGA

Xilinx 等公司的現(xiàn)代 FPGA 器件就是電子元器件中的樂(lè)高。我們可以使用其電路作為模塊來(lái)構(gòu)建出整個(gè)定制微處理器和復(fù)雜的異構(gòu)系統(tǒng)。而在最近幾年,F(xiàn)PGA 開(kāi)始生產(chǎn)出越來(lái)越多的乘累加計(jì)算模塊。這些 DSP 模塊正如其名,能夠執(zhí)行乘法運(yùn)算并可以被排列到一起來(lái)進(jìn)行一定量的并行運(yùn)算。

我們將 FPGA 應(yīng)用于神經(jīng)網(wǎng)絡(luò)的研究歷史已有 10 年時(shí)間。我們的工作始于來(lái)自紐約大學(xué)的 Yann LeCun 的開(kāi)創(chuàng)性工作,尤其是 Clement Farabet。我們的協(xié)同合作制造出了 NeuFlow,它是一個(gè)復(fù)雜的、用于運(yùn)行神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)流處理器。

從 2011 年到 2015 年早期,我們完善了一個(gè)全新的設(shè)計(jì)——nn-X。這項(xiàng)工作是由 Berin Martini 和 Vinayak Gokhale(來(lái)自我們的辦公室)領(lǐng)導(dǎo)的。這套系統(tǒng)可以在 4 瓦的功率電力預(yù)算下實(shí)現(xiàn) 200 G-ops/s 的速度,也即 50 G-ops/s/W,這個(gè)結(jié)果幾乎是 GPU 性能的 10 倍。

但是 nn-X 有兩個(gè)很大的問(wèn)題:

當(dāng)固定的卷積引擎(convolutional engine)未被使用時(shí)其利用率會(huì)很低

高內(nèi)存帶寬

第一個(gè)問(wèn)題是由于 nn-X 采用了固定的 10x10 卷積引擎,而當(dāng)它在執(zhí)行 3x3 卷積時(shí),只有 9% 的 DSP 單元得到了有效利用。這一點(diǎn)后來(lái)是通過(guò)將一個(gè) 12x12 的網(wǎng)格分為 4x4 單元的 3x3 卷積器而得以解決。不幸的是該系統(tǒng)還需要高內(nèi)存帶寬,因?yàn)樗](méi)有使用數(shù)據(jù)緩存且需要從內(nèi)存中讀取輸入并直接將結(jié)果保存在內(nèi)存中。像這樣的 nn-X 不能進(jìn)行擴(kuò)展,且其 DPS 單元的利用率永遠(yuǎn)不會(huì)超過(guò) 75–80%。

設(shè)計(jì)方面有類似限制的系統(tǒng)也會(huì)有性能方面的限制。

我們所需的是一個(gè)帶有數(shù)據(jù)緩存的系統(tǒng),它可以使用任意組 DPS 單元來(lái)有效地(近乎 100% 地)利用資源。這種系統(tǒng)有 Microsoft Catapult 和我們的 SnowFlake 加速器,后者的利用率幾乎可以達(dá)到 100%(更多內(nèi)容即將呈現(xiàn))。

微軟使用 Altera 器件來(lái)實(shí)現(xiàn)創(chuàng)紀(jì)錄的深度神經(jīng)網(wǎng)絡(luò)處理性能。不幸的是它并不是一個(gè)商業(yè)化的系統(tǒng),而是一項(xiàng)微軟的數(shù)據(jù)中心資產(chǎn),因而還未對(duì)公眾開(kāi)放。中國(guó)的科技巨頭企業(yè)百度也加入了這一隊(duì)列。

定制 SoC

高通AMDARM、英特爾和英偉達(dá)都在致力于將定制化芯片整合進(jìn)它們的現(xiàn)有解決方案中。Nervana 和 Movidius(目前都在英特爾旗下)已經(jīng)或者說(shuō)正在開(kāi)發(fā)集合方案。SoC 在同一技術(shù)節(jié)點(diǎn)上所能提供的性能大約是 FPGA 系統(tǒng)的 10 倍,在特定結(jié)構(gòu)中還要更高。由于 SoC 和處理器所需的功率變得越來(lái)越低,其區(qū)別將來(lái)自于新的集合內(nèi)存系統(tǒng)和帶寬對(duì)外部存儲(chǔ)器的有效利用。在這一領(lǐng)域,整合為 systems-on-a-package(SOP)的 3D memory 至少可以節(jié)約 10 倍的功率。

DSP

DSP 已經(jīng)存在了很長(zhǎng)一段時(shí)間,它最初是用來(lái)執(zhí)行矩陣算法的。但到目前為止,DSP 并沒(méi)能真正提供任何有用的性能或是可以與 GPU 相匹敵的器件。為什么會(huì)這樣呢?其主要原因就是核數(shù)量。DSP 主要用于電信系統(tǒng),且無(wú)需擁有 16 個(gè)或 32 個(gè)以上的核。其工作負(fù)載并不需要這么多。相反,GPU 負(fù)載在近 10~15 年間一直在增加,因此它需要更多的核。最終,大約從 2006 年開(kāi)始,英偉達(dá)的 GPU 在性能上就超過(guò)了 DSP。

Texas Instruments 公司還在開(kāi)發(fā) DSP,但是我們從中并沒(méi)有看到任何有競(jìng)爭(zhēng)力的性能。且許多 DSP 也已經(jīng)被 FPGA 取代了。

Qualcomm 在它們的 SoC 中使用 DSP,并且其性能會(huì)有所加速,但是目前還沒(méi)有足夠多的信息來(lái)將它與其它的解決方案進(jìn)行比較。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1626

    文章

    21678

    瀏覽量

    602043
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10829

    瀏覽量

    211196
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5493

    瀏覽量

    121000

原文標(biāo)題:剖析GPU、FPGA、ASIC和DSP,如何選擇高效的深度學(xué)習(xí)硬件?

文章出處:【微信號(hào):FPGAer_Club,微信公眾號(hào):FPGAer俱樂(lè)部】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    相比GPU和GPP,FPGA深度學(xué)習(xí)的未來(lái)?

    相比GPU和GPP,FPGA在滿足深度學(xué)習(xí)硬件需求上提供了具有吸引力的替代方案。憑借流水線并行計(jì)算的能力和
    發(fā)表于 07-28 12:16 ?7472次閱讀

    到底什么是ASICFPGA

    ASICFPGA的區(qū)別,還有它們和CPU、GPU之間的區(qū)別。 ASICFPGA,本質(zhì)上都是芯片。AISC是全定制芯片,功能寫死,沒(méi)辦法
    發(fā)表于 01-23 19:08

    FPGA深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    ,這使得它比一般處理器更高效。但是,很難對(duì) FPGA 進(jìn)行編程,Larzul 希望通過(guò)自己公司開(kāi)發(fā)的新平臺(tái)解決這個(gè)問(wèn)題。 專業(yè)的人工智能硬件已經(jīng)成為了一個(gè)獨(dú)立的產(chǎn)業(yè),但對(duì)于什么是深度
    發(fā)表于 03-21 15:19

    FPGA深度學(xué)習(xí)能走多遠(yuǎn)?

    FPGA 也需要不斷適應(yīng)和改進(jìn)。研究人員和開(kāi)發(fā)者將致力于針對(duì) FPGA 的特點(diǎn)對(duì)深度學(xué)習(xí)算法進(jìn)行優(yōu)化,例如探索更高效的模型壓縮方法、量化技
    發(fā)表于 09-27 20:53

    FPGA 超越 GPU,問(wèn)鼎下一代深度學(xué)習(xí)主引擎

    的合著者之一,說(shuō):“深度學(xué)習(xí)是AI中最令人興奮的領(lǐng)域,因?yàn)槲覀円呀?jīng)看到了深度學(xué)習(xí)帶來(lái)的巨大進(jìn)步和大量應(yīng)用。雖然AI 和DNN 研究?jī)A向于使用 GPU
    發(fā)表于 04-27 14:10

    【詳解】FPGA深度學(xué)習(xí)的未來(lái)?

    學(xué)習(xí)硬件需求上提供了具有吸引力的替代方案。憑借流水線并行計(jì)算的能力和高效的能耗,FPGA將在一般的深度
    發(fā)表于 08-13 09:33

    軟件無(wú)線電設(shè)計(jì)中選擇ASICFPGADSP需要考慮哪些因素?

    ASICFPGADSP的應(yīng)用領(lǐng)域呈現(xiàn)相互覆蓋的趨勢(shì),使設(shè)計(jì)人員必須在軟件無(wú)線電結(jié)構(gòu)設(shè)計(jì)中重新考慮器件選擇策略問(wèn)題。從可編程性、集成度、開(kāi)發(fā)周期、性能和功率五個(gè)方面探究,你會(huì)發(fā)現(xiàn)軟件
    發(fā)表于 08-16 07:51

    軟件無(wú)線電設(shè)計(jì)中ASICFPGADSP該怎么選擇

    ASICFPGADSP的應(yīng)用領(lǐng)域呈現(xiàn)相互覆蓋的趨勢(shì),使設(shè)計(jì)人員必須在軟件無(wú)線電結(jié)構(gòu)設(shè)計(jì)中重新考慮器件選擇策略問(wèn)題。
    發(fā)表于 09-02 07:58

    DSPFPGA有哪些異同

    硬件DSP:是ASIC,如同CPU/GPU一樣,適合量產(chǎn),降低成本,缺點(diǎn)是(硬件)設(shè)計(jì)一旦確定,便不易于修改。
    發(fā)表于 07-28 09:06

    對(duì)FPGAASIC/GPU NN實(shí)現(xiàn)進(jìn)行定性的比較

    的快速發(fā)展以及新一代設(shè)備的不斷出現(xiàn)也時(shí)刻改變著競(jìng)爭(zhēng)格局。二、為什么選擇FPGA?如圖所示神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的硬件架構(gòu)范例。GPU是具有高靈活性的通用硬件
    發(fā)表于 02-08 15:26

    什么是深度學(xué)習(xí)?使用FPGA進(jìn)行深度學(xué)習(xí)的好處?

    深度學(xué)習(xí)計(jì)算而優(yōu)化的 ASIC 被推向市場(chǎng),GPU 配備了專門用于深度學(xué)習(xí)的電路。基于這些,不
    發(fā)表于 02-17 16:56

    FPGAASIC將在機(jī)器學(xué)習(xí)領(lǐng)域崛起

    盡管GPU仍是當(dāng)前的機(jī)器學(xué)習(xí)市場(chǎng)的主流,但有產(chǎn)業(yè)觀察家已經(jīng)預(yù)見(jiàn)了FPGAASIC在機(jī)器學(xué)習(xí)領(lǐng)域的崛起。Deloitte Global分析指
    的頭像 發(fā)表于 01-06 10:01 ?5054次閱讀

    深度學(xué)習(xí)方案ASICFPGAGPU比較 哪種更有潛力

    幾乎所有深度學(xué)習(xí)的研究者都在使用GPU,但是對(duì)比深度學(xué)習(xí)硬鑒方案,ASIC
    發(fā)表于 02-02 15:21 ?1w次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>方案<b class='flag-5'>ASIC</b>、<b class='flag-5'>FPGA</b>、<b class='flag-5'>GPU</b>比較 哪種更有潛力

    GPU和GPP相比誰(shuí)才是深度學(xué)習(xí)的未來(lái)

    相比GPU和GPP,FPGA在滿足深度學(xué)習(xí)硬件需求上提供了具有吸引力的替代方案。憑借流水線并行計(jì)算的能力和
    發(fā)表于 10-18 15:48 ?1476次閱讀

    FPGA深度學(xué)習(xí)領(lǐng)域的未來(lái)會(huì)有怎樣的發(fā)展

    近十年來(lái),人工智能又到了一個(gè)快速發(fā)展的階段。深度學(xué)習(xí)在其發(fā)展中起到了中流砥柱的作用,盡管擁有強(qiáng)大的模擬預(yù)測(cè)能力,深度學(xué)習(xí)還面臨著超大計(jì)算量的問(wèn)題。在
    發(fā)表于 10-22 15:26 ?1061次閱讀