精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

從FPGA說起的深度學習:任務并行性

OpenFPGA ? 來源:OpenFPGA ? 2023-04-12 10:19 ? 次閱讀

這是新的系列教程,在本教程中,我們將介紹使用 FPGA 實現深度學習的技術,深度學習是近年來人工智能領域的熱門話題

在本教程中,旨在加深對深度學習和 FPGA 的理解。

用 C/C++ 編寫深度學習推理代碼

高級綜合 (HLS) 將 C/C++ 代碼轉換為硬件描述語言

FPGA 運行驗證

從這篇文章中,我們將從之前創建的網絡模型中提取并行性,并確認處理速度得到了提高。首先,我們檢查當前模型的架構,并考慮什么樣的并行化是可性的。

并行化方法研究

當前模型架構的框圖如下所示。限于篇幅省略了maxpool2d和relu。

4673b262-d8d7-11ed-bfe3-dac502259ad0.png

在這個模塊中,conv1、conv2、fc1、fc2都是作為不同的模塊實現的。FPGA內部的SRAM在每一層之間插入一個緩沖區(x', x'', x''' ),這個緩沖區成為每一層的輸入和輸出。此后,每一層(conv1、conv2、fc1、fc2)被稱為一個任務。

順序處理(基線)

下圖顯示了使用該模塊對 3 幀圖像執行推理處理時的執行時間可視化。

每個任務的執行時間以推理模塊的實際運行波形為準,是conv2>conv1>fc1>fc2的關系。在該模塊中,conv1、conv2、fc1和fc2作為單獨的任務實施,但是這些任務一次只能運行一個(后面會解釋原因)。因此,如果將conv1、conv2、fc1、fc2各層的執行時間作為最終的執行時間,則這3幀圖像的t0, t1, t2, t3處理時間為3 * (t0 + t1 + t2 + t3)

4688c59e-d8d7-11ed-bfe3-dac502259ad0.png

任務并行度

假設我們可以修復這些任務并發運行。這種情況下的執行時間如下所示,多個任務可以同時處理不同的幀。

469925ce-d8d7-11ed-bfe3-dac502259ad0.png

提取并行性使多個任務可以同時運行,稱為任務并行化。在這個過程中,conv2的執行時間占主導地位,所以3幀的處理時間為t0 + 3 * t1 + t2 + t3。

理想的任務并行度

最后,我們考慮可以理想地執行任務并行化的模式。如上所述,如果只提取任務并行性,最慢的任務就會成為瓶頸,整體處理速度會受到該任務性能的限制。因此,最有效的任務并行是所有任務都具有相同的執行時間。

46a94d82-d8d7-11ed-bfe3-dac502259ad0.png

在這種情況下,處理時間t0 + 3 * t1 + t2 + t3保持不變,但t0 = t1 = t2 = t3調整了每個任務的執行時間,從而提高了性能。在本課程中,實現這種加速的技術被稱為循環并行化和數據并行化。這兩種并行度提取方法將在下一篇文章中介紹。

任務并行化

在本文中,第一個目標是執行任務并行化。

由于這次創建的模塊中有多個任務,貌似已經可以并行處理了,但在實際波形中并不是這樣。之所以不能并行化,是因為作為x', x'', x'''任務間接口的buffer()不能被多個任務同時使用。對于任務并行化,任務之間的接口必須可以同時被兩個或多個任務讀寫。

在這個模塊x'中,任務級并行化是通過在任務之間使用乒乓緩沖區來實現的。乒乓緩沖區有兩個緩沖區,一個用于寫入,一個用于讀取。帶有乒乓緩沖器的框圖如下所示:

46bf7300-d8d7-11ed-bfe3-dac502259ad0.png 帶有乒乓緩沖器的推理模塊

如果以這種方式配置電路,存儲 conv1 輸出的緩沖區和 conv2 從中讀取輸入的緩沖區是分開的,因此 conv1 和 conv2 可以同時運行。雖然圖中省略了,但所有層都可以通過雙緩沖conv2 <-> fc1,fc1 <-> fc2同時操作。

要在 RTL 中實現這一點,準備兩個緩沖區并實現切換機制會很麻煩,但在 Vivado/Vitis HLS 中,只需添加一些 pragma 即可實現這種并行化。

代碼更改

對于此任務并行化,我們需要添加以下三種類型的編譯指示。

#pragmaHLSdataflow
#pragmaHLSstable
#pragmaHLSinterfaceap_ctrl_chain

在解釋每個pragma的作用之前,我先inference_dataflow展示一下新增函數的源代碼。與第五篇中的inference_top函數重疊的部分省略。

60voidinference_dataflow(constfloatx[kMaxSize],
61constfloatweight0[kMaxSize],constfloatbias0[kMaxSize],
62constfloatweight1[kMaxSize],constfloatbias1[kMaxSize],
63constfloatweight2[kMaxSize],constfloatbias2[kMaxSize],
64constfloatweight3[kMaxSize],constfloatbias3[kMaxSize],
65floaty[kMaxSize]){
66#pragmaHLSdataflow
67#pragmaHLSinterfacem_axiport=xoffset=slavebundle=gmem0
...
76#pragmaHLSinterfacem_axiport=yoffset=slavebundle=gmem9
77#pragmaHLSinterfaces_axiliteport=xbundle=control
...
86#pragmaHLSinterfaces_axiliteport=ybundle=control
87#pragmaHLSinterfaces_axiliteport=returnbundle=control
88#pragmaHLSinterfaceap_ctrl_chainport=returnbundle=control
89
90#pragmaHLSstablevariable=x
91#pragmaHLSstablevariable=weight0
92#pragmaHLSstablevariable=bias0
93#pragmaHLSstablevariable=weight1
94#pragmaHLSstablevariable=bias1
95#pragmaHLSstablevariable=weight2
96#pragmaHLSstablevariable=bias2
97#pragmaHLSstablevariable=weight3
98#pragmaHLSstablevariable=bias3
99#pragmaHLSstablevariable=y
100
101dnnk::inference(x,
102weight0,bias0,
103weight1,bias1,
104weight2,bias2,
105weight3,bias3,
106y);
107}

第66 行添加#pragma HLS dataflow的 pragma使inference_dataflow這些內部函數之間的接口成為乒乓緩沖區并啟用任務并行化。第 101 行調用的函數dnnk::inference是下面的函數,它通過第 20 行的#pragma HLS inline編譯指示在函數內inference_dataflow內嵌展開。因此,諸如 conv2d, relu的函數符合任務并行化的條件,它們的接口 ( x1, x2, ...) 是一個乒乓緩沖區。

14staticvoidinference(constfloat*x,
15constfloat*weight0,constfloat*bias0,
16constfloat*weight1,constfloat*bias1,
17constfloat*weight2,constfloat*bias2,
18constfloat*weight3,constfloat*bias3,
19float*y){
20#pragmaHLSinline
...
34
35//1stlayer
36conv2d(x,weight0,bias0,kWidths[0],kHeights[0],kChannels[0],kChannels[1],3,x1);
37relu(x1,kWidths[0]*kHeights[0]*kChannels[1],x2);
38maxpool2d(x2,kWidths[0],kHeights[0],kChannels[1],2,x3);
39
...
48
49//4thlayer
50linear(x8,weight3,bias3,kChannels[3],kChannels[4],y);
51}

inference_dataflow從函數的第90行#pragma HLS stable開始,在x, weight0, y輸入/輸出等函數inference_dataflow的入口/出口處自動完成同步。如果不去掉這個同步,兩個進程之間就會產生依賴,比如“上一幀y輸出完成->下一幀x輸入準備好”,多任務就不行了。另請參閱Vivado HLS 官方文檔 ( UG902 ),了解有關穩定陣列部分的詳細說明。

最后,inference_dataflow該函數第88行的pragma修改了外部寄存器接口,使得#pragma HLS interface ap_ctrl_chain port=return該函數可以用于同時處理多個幀。inference_dataflow如果沒有這個 pragma,即使你實現了 ping-pong 緩沖區,主機端也只會嘗試一個一個地執行它們,性能不會提高。

綜合結果確認

可以在檢查綜合時檢查任務并行化是否順利進行。

下面是HLS綜合結果報告,Latency -> Summary一欄列出了整個函數的延遲和執行間隔(Interval)。在這里,整體延遲仍然是所有任務處理時間的總和,但執行間隔的值conv2d_232_U0與第二個卷積層的執行周期數相匹配。該模塊的吞吐量是第二個卷積層執行間隔的倒數。

46dfb890-d8d7-11ed-bfe3-dac502259ad0.png

正如本文開頭所解釋的,conv2d_232_U0處理時間成為此任務并行化后電路中的瓶頸。任務并行化的速度提升率為947407 / 504898 = 1.88倍。

通過這種方式,我們能夠確認 HLS 能夠正確實現任務并行化。

總結

在本文中,我們通過提取任務并行性來加速處理。本來conv2占用了一半以上的執行時間,所以提速幅度不到2倍,如果設置為N,最大提速為N倍。

在下一篇文章中,我們將通過對卷積層應用數據并行化和循環并行化來解決每一層處理時間的不平衡。

審核編輯:湯梓紅
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • FPGA
    +關注

    關注

    1626

    文章

    21665

    瀏覽量

    601808
  • 人工智能
    +關注

    關注

    1791

    文章

    46845

    瀏覽量

    237537
  • C++
    C++
    +關注

    關注

    22

    文章

    2104

    瀏覽量

    73488
  • 模型
    +關注

    關注

    1

    文章

    3171

    瀏覽量

    48711
  • 深度學習
    +關注

    關注

    73

    文章

    5492

    瀏覽量

    120975

原文標題:從FPGA說起的深度學習(六)-任務并行性

文章出處:【微信號:Open_FPGA,微信公眾號:OpenFPGA】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于HLS之任務并行編程

    ,用戶要手工添加DATAFLOWpragma,工具會在該pragma指定的區域內判別任務之間的并行性,生成各進程之間的模塊級控制信號。對于數據驅動型,用于需要明確指定可并行執行的任務
    的頭像 發表于 07-27 09:22 ?1205次閱讀
    基于HLS之<b class='flag-5'>任務</b>級<b class='flag-5'>并行</b>編程

    淺析HLS的任務并行性

    HLS的任務并行性(Task-level Parallelism)分為兩種:一種是控制驅動型;一種是數據驅動型。
    的頭像 發表于 07-27 09:21 ?893次閱讀
    淺析HLS的<b class='flag-5'>任務</b>級<b class='flag-5'>并行性</b>

    FPGA在人工智能中的應用有哪些?

    FPGA(現場可編程門陣列)在人工智能領域的應用非常廣泛,主要體現在以下幾個方面: 一、深度學習加速 訓練和推理過程加速:FPGA可以用來加速深度
    發表于 07-29 17:05

    FPGA深度學習能走多遠?

    支持不同的數據精度、量化和激活函數等。這種靈活性使其能夠適應各種深度學習任務,為不同的應用場景提供定制化的解決方案。 ? 低功耗:FPGA 是可編程的,可以在設計中僅使用所需的計算資源
    發表于 09-27 20:53

    【詳解】FPGA深度學習的未來?

    深度利用流水線并行,這與前饋深度學習方法自然契合。現代FPGA還支持部分動態重新配置,當
    發表于 08-13 09:33

    Python中的并行性和并發性分析

      在Python編程語言當中,很多人對Python中的并行性和并發性不了解。今天我們將討論python中的并發和并行性www.zpedu.com。在這里,我們將研究Python的多線程,多處
    發表于 08-21 17:45

    阻止任務級別并行性的常見情況

    粗粒度并行優化的任務級流水阻止任務級別并行性的常見情況
    發表于 03-09 06:58

    什么是深度學習?使用FPGA進行深度學習的好處?

    上述分類之外,還被用于多項任務(下面顯示了四個示例)。在 FPGA 上進行深度學習的好處我們已經提到,許多服務和技術都使用深度
    發表于 02-17 16:56

    算法隱含并行性的物理模型

    算法隱含并行性的物理模型:利用物理學原理對算法的隱含并行性進行了分析,提出算法的不確定性和高熵態是隱含并行性出現的根源,但算法的隱含并行性會導致算法結果的不確定
    發表于 10-21 08:23 ?10次下載

    英特爾架構中的多線程優化和擴展并行性的編程技術

    有效并行縮減和擴展并行性的編程技術。
    的頭像 發表于 11-01 06:24 ?2198次閱讀

    FPGA深度學習領域的應用

    本文硬件加速的視角考察深度學習FPGA,指出有哪些趨勢和創新使得這些技術相互匹配,并激發對FPGA如何幫助
    的頭像 發表于 06-28 17:31 ?6881次閱讀

    如何在不需要特殊庫或類的情況下實現C代碼并行性?

    提取實現任務級 (task_level) 的硬件并行算法是設計高效的HLS IP內核的關鍵。 在本文中,我們將重點放在如何能夠在不需要特殊的庫或類的情況下修改代碼風格以實現C代碼實現并行性
    的頭像 發表于 02-11 11:05 ?1411次閱讀
    如何在不需要特殊庫或類的情況下實現C代碼<b class='flag-5'>并行性</b>?

    FPGA說起深度學習

    這是新的系列教程,在本教程中,我們將介紹使用 FPGA 實現深度學習的技術,深度學習是近年來人工智能領域的熱門話題。
    的頭像 發表于 03-03 09:52 ?1475次閱讀

    FPGA說起深度學習:數據并行性

    這是新的系列教程,在本教程中,我們將介紹使用 FPGA 實現深度學習的技術,深度學習是近年來人工智能領域的熱門話題。
    的頭像 發表于 05-04 11:22 ?1277次閱讀
    <b class='flag-5'>從</b><b class='flag-5'>FPGA</b><b class='flag-5'>說起</b>的<b class='flag-5'>深度</b><b class='flag-5'>學習</b>:數據<b class='flag-5'>并行性</b>

    Vitis HLS:使用任務并行性的高性能設計

    電子發燒友網站提供《Vitis HLS:使用任務并行性的高性能設計.pdf》資料免費下載
    發表于 09-13 17:21 ?0次下載
    Vitis HLS:使用<b class='flag-5'>任務</b>級<b class='flag-5'>并行性</b>的高性能設計