精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何適配新架構?TPU-MLIR代碼生成CodeGen全解析!

算能開發者社區 ? 2023-11-02 08:34 ? 次閱讀

背景介紹

TPU-MLIR的CodeGen是BModel生成的最后一步,該過程目的是將MLIR文件轉換成最終的Bmodel。本文介紹了CodeGen的基本原理和流程,并記錄了針對BM1684X等新架構的CodeGen重構過程。

與后端的關系

由于一些歷史的因素,MLIR文件中的每個OP對應的指令并不直接在TPU-MLIR工程中生成,而是需要調用后端的函數完成最終指令的生成,這也帶來了兩個問題

  1. 如何設計編譯器與后端的接口
  2. 生成指令的數據結構存在后端還是編譯器中

關于問題1,目前的設計是采用CodeGen與后端隔離的形式,也就是CodeGen過程不直接調用后端函數,而是將不同處理器的相應函數全部封裝到類中,在CodeGen中調用類方法間接使用后端接口,達成解耦。

而關于問題2,依據不同的處理器其數據結構位置也不同,1684的數據結構放在編譯器這邊,而BM1684X等新架構的處理器數據結構放在后端。無論放在哪里,其全部封裝于問題1答案中的相應類中,對于CodeGen過程來說,看到的接口是一樣的。

一個OP生成指令的大致流程

代碼位置:lib/Dialect/Tpu/Transforms/Codegen/BM168xCodegen.cpp

該流程忽略CodeGen代碼內部細節,這里只講解類似于把大象裝冰箱主要分幾步這樣的通俗介紹。

  1. 在BM168XCodegen.cpp會遇到某個Op時會調用該op的codegen_local_bm168x/codegen_global_bm168x,算子的這個函數都在lib/Dialect/Tpu/Interfaces/中
  2. 在具體OP中會設置一些參數,然后調用到后端的具體op的指令生成,比如Conv2d算子會調用后端函數backend_api_conv_global
  3. (后端過程)直接做一系列檢查后,會直接生成指令(二進制碼),這些二進制碼會通過store_cmd存儲在指定數據結構中,
  4. 等所有op的二進制碼全部都生成完畢后,在編譯器會調用BM1684X系列類中封裝的函數取走指令,生成Bmodel

a3d1bd9c-7917-11ee-9788-92fbcf53809c.png

做個形象點的例子:

原來裝冰箱只需要我,現在我嫌大象沉,我叫個張三幫我裝。
我:張三,你把這個大象給我裝冰箱里
張三吭哧吭哧幫我裝完了
我:行了,張三,你走吧;我自己把裝的運走。

指令生成所需要的數據結構

指令依據處理器的engine不同而有所差別,比如1684有GDMA和TIU,而新架構的處理器SG2260會存在sdma、cdma等engine。這里拿最通用的兩種engine即BDC(后更名為TIU)和GDMA為例:

std::vector<uint32_t>bdc_buffer;
std::vector<uint32_t>gdma_buffer;
uint32_tgdma_total_id=0;
uint32_tbdc_total_id=0;
std::vector<uint32_t>gdma_group_id;
std::vector<uint32_t>bdc_group_id;
std::vector<uint32_t>gdma_bytes;
std::vector<uint32_t>bdc_bytes;
intcmdid_groupnum=0;
CMD_ID_NODE*cmdid_node;
CMD_ID_NODE*bdc_node;
CMD_ID_NODE*gdma_node;

  • bdc_buffer和gdma_buffer:放指令
  • gdma_total_id和bdc_total_id:存指令總數目,因為指令不一定是32位的,因此使用buffer的長度不能獲取到指令的總數目
  • gdma_group_id和bdc_group_id:每個group中的指令數,這個group是什么意思待調查清楚,后端對其進行控制時代碼如下所示

a3e2e310-7917-11ee-9788-92fbcf53809c.png

cmdid_overflow

  • cmdid_groupnum:group的數量
  • gdma_bytes和bdc_bytes:內部是每個group中指令的字節(Bytes)數
  • cmdid_node、bdc_node和gdma_node:這個node是為了并行生成GroupOp內部所需要指令而形成指的,具體機制還有待研究

TPU-MLIR中layer group和上述行為中group的概念區分

TPU-MLIR中的layer group是指可以存放在Lmem的一系列算子,組成一個Group Op。

而上述的group,指的是指令組。這個指令組存在的意義是防止內存不夠用,比方說1684只有16位尋址空間,那么大于這個數字的指令無法一次性全部搬運到內存,所以當指令超出某個數時候,就會重新建一個組。

TPU-MLIR中BM168X及其相關類

這邊的相關類tpu-mlir/include/tpu_mlir/Backend該文件夾下定義的類,目的就是將不同的處理器后端封裝,從而實現后端于Codegen過程的隔離。

其繼承關系為:

a3ef36d8-7917-11ee-9788-92fbcf53809c.png

在一次運行中只存在一個類(設計模式中單例),該類初始化時候會經過:讀取后端動態鏈接庫、加載函數(設置后端的函數指針)、指令數據結構的初始化、設置一些處理器相關的參數例如NPU_NUM、L2_SRAM起始地址等。

后端函數的加載

后端作為一個動態庫放入了TPU-MLIR工程里,具體在third_party/nntoolchain/lib/libbackend_xxx.so。在我們要使用backend時候,先在需要函數的類中定義好函數指針,然后再將動態庫加載后,使函數指針指向動態庫中真正的函數。

以同步函數tpu_sync_all為例,由于之后要加上多核支持的,所以需要在相關后端Bmodel庫中定義好,

  1. 注意必須和后端的函數名和參數保持一致typedef void (*tpu_sync_all)();
  2. 在類內部加入該函數成員tpu_sync_all, dl_tpu_sync_all;
  3. 有成員后,在該類load_functions函數的實現中加入宏,CAST_FUNCTION(tpu_sync_all);該宏可以將dl_tpu_sync_all指向動態庫中真正的函數

這時候在我們獲得到該類實例后即可使用動態庫中的函數了。

后端store_cmd設計

后端的store_cmd功能是指編譯器調用算子的過程中,把配置的指令保存到約定空間的過程。(以下是后端代碼,以后會選擇性開放)。后端的重點函數在store_cmd.cpp中,以cmodel/src/store_cmd.cpp;cmodel/include/store_cmd.h為例

注:store_cmd類設計的非常復雜,參雜各種設計模式在里面,只大概梳理一下類之間關系

store_cmd分別有EngineStorer系列類和CmdStorer系列類:

  • EngineStoreInterface(接口類)、繼承于EngineStoreInterface接口的GDMAEngineStorer、BDEngineStorer等具體類、EngineStorerDecorator(裝飾類接口)、繼承于EngineStorerDecorator的VectorDumpEngineStorerDecorator等具體裝飾類
  • CmdStorerInterface(接口)、繼承于接口的ConcretCmdStorer、StorerDecorator:裝飾接口、VectorDumpStorerDecorator具體裝飾類。

關于類之間的關系與邏輯

  1. 使用單例設計模式,在store_cmd中只存在一個ConcretCmdStorer類,該類中會存所有EngineStorer的類,當調用不同的engine時,會調用不同EengineStorer,如下代碼

virtualvoidstore_cmd(intengine_id,void*cmd,CMD_ID_NODE*cur_id_node,
intport)override
{
switch(engine_id)
{
caseENGINE_BD:
caseENGINE_GDMA:
caseENGINE_HAU:
caseENGINE_SDMA:
port=0;
break;
caseENGINE_CDMA:
ASSERT(port break;
caseENGINE_VSDMA:
engine_id=ENGINE_SDMA;
break;
default:
ASSERT(0);
break;
}
returnthis->get(engine_id,port)->store(cmd,cur_id_node);
}

  1. Cmd裝飾類的作用是將所有的EngineStorer套上其裝飾器的殼子(目的實現其他功能),以VectorDumpStorerDecorator為例,會使用宏為每個EngineStorer、套上VectorDumpEngineStorerDecorator的殼子。

voiddecorate_engines()
{
#defineDECOR_STORER(name,idx)\
if(outputs_[ENGINE_##name][idx])\
{\
autoname##_str=std::make_shared(\
StorerDecorator::get(ENGINE_##name,idx),\
&(outputs_[ENGINE_##name][idx]));\
StorerDecorator::get(ENGINE_##name,idx)=name##_str;\
engine_decorators_.push_back(name##_str);\
}
DECOR_STORER(BD,0)
DECOR_STORER(GDMA,0)
DECOR_STORER(HAU,0)
DECOR_STORER(SDMA,0)
for(inti=0;i{
DECOR_STORER(CDMA,i)
}

#undefDECOR_STORER
}

每個具體的EngineStorer,注意其功能并非把命令存下來,他只干解析命令,比方說拿到一條320位的命令(瞎說的),EngineStorer會將其解析成長度為10的32位數組(std::vector)。

真正存命令是使用VectorDumpEngineStorerDecorator,裝飾器的作用是:執行被裝飾類的特定函數時,進行更多的操作,具體可以《設計模式》的書。這點對于理解store_cmd非常重要,作者在設計store_cmd時,使用了很多裝飾器、為每個EngineStorer賦予了額外的功能,其中把指令儲存也看作一個裝飾器。VectorDumpEngineStorerDecorator該裝飾器執行EngineStorer類中的store函數后,會追加執行take_cmds函數,該函數將所有指令存儲到output_中。

classVectorDumpEngineStorerDecorator:publicEngineStorerDecorator
{
private:
std::vector<uint32_t>*&output_;

voidtake_cmds()
{
autocmds=EngineStorerDecorator::get_cmds();
(*output_).insert((*output_).end(),cmds.begin(),cmds.end());
}

public:
VectorDumpEngineStorerDecorator(ComponentPtrcomponent,
std::vector<uint32_t>**output)
:EngineStorerDecorator(component),output_(*output){}

virtualvoidstore(void*cmd,CMD_ID_NODE*cur_id_node)override
{
EngineStorerDecorator::store(cmd,cur_id_node);
if(!enabled_)
return;
this->take_cmds();
}

virtualvoidstore_cmd_end(unsigneddep)override
{
EngineStorerDecorator::store_cmd_end(dep);
this->take_cmds();
}
};

store_cmd中類與暴露給編譯器接口的關系

實際上上述的各種類不能直接暴露給編譯器,因為必須傳的是c函數的函數接口,因此必須將類中各種函數封裝進c語言函數形式,以store_cmd為例,get_storer會獲得唯一的ConcretCmdStorer類

voidstore_cmd(void*cmd,intengine_id,CMD_ID_NODE*cur_id_node,intport,
intthread_id)
{
get_storer()->store_cmd(engine_id,cmd,cur_id_node,port);
}

TPU-MLIR中的重構修改

分為三部分:BM168X及派生類、BM168XCodeGen

對于BM168X派生類來說,后端工程中添加了很多新的函數,這些函數主要是將存指令的數據結構放入了后端管理,涉及的后端有1684X之后架構的處理器,而1684并不適配新的函數。這意味著:

存儲指令的數據結構需要發生改變,許多數據結構已經不需要。如下圖所示:

a3f63e24-7917-11ee-9788-92fbcf53809c.png

需要添加新的接口函數,即使獲取指令的方式不同,但是在Codegen過程看到的應該是一樣的行為。

a4177756-7917-11ee-9788-92fbcf53809c.png

這里傳入的參數是const char*是為了簡化參數定義,可以用特定格式字符串來指定后端engine。如gdma1,這里gdma表示GDMA Engine, 0表示第0個GDMA Engine(一個TPU內可能有多個相同的engine), 1表示第0號GDMA Engine的第1個線程(每個Engine可能支持多線程)。

對于BM168XCodegen,之前是需要在上面的Code結構體獲取相關的數據,而修改后須使用新接口,

修改前:auto gdma_ptr = (uint8_t *)(*bm168x)->gdma_buffer.data();修改后:auto gdma_ptr = (uint8_t *)(*bm168x).get_inst_data("gdma0");

并且對于后續架構處理器的指令生成來說,目前需要存儲sdma和hau的指令,所以相關指令也需要添加入Bmodel。如下圖所示(這里主要用到了FlatBuffer操作):

a421887c-7917-11ee-9788-92fbcf53809c.png

codegen_save

總結

從中可以看出,TPU-MLIR雖然能夠滿足當前TPU上的基本需求,但隨著應用場景的擴展和TPU架構的不斷演進,其需要滿足很多新的要求。這就需要開發者不斷思考和挖掘新的接口和架構,使其具有一定的擴展性和適應性。歡迎并感謝各位有識之士為TPU-MLIR多提建議,貢獻代碼!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 代碼
    +關注

    關注

    30

    文章

    4669

    瀏覽量

    67757
  • 編譯器
    +關注

    關注

    1

    文章

    1602

    瀏覽量

    48894
  • 架構
    +關注

    關注

    1

    文章

    501

    瀏覽量

    25374
收藏 人收藏

    評論

    相關推薦

    【算能RADXA微服務器試用體驗】+ GPT語音與視覺交互:2,圖像識別

    /download.sh 下載完成后,應該可以看到文件夾中出現以下模型: ./models ├── BM1684 │├── yolov8s_fp32_1b.bmodel# 使用TPU-MLIR編譯,用于
    發表于 07-14 23:36

    為什么在cycx3_uvcdcsr.c生成代碼(GUID),視頻播放器解析出來是UYVY?

    我這里設置視頻輸入格式為RAW10 為什么在cycx3_uvcdcsr.c生成代碼(GUID),視頻播放器解析出來是UYVY
    發表于 02-29 06:07

    基于TPU-MLIR:詳解EinSum的完整處理過程!

    EinSum介紹EinSum(愛因斯坦求和)是一個功能強大的算子,能夠簡潔高效地表示出多維算子的乘累加過程,對使用者非常友好。本質上,EinSum是一個算子族,可以表示多種基礎操作,如矩陣乘法、Reduce。EinSum支持任意多的輸入,只要計算中只包含點乘(element-wise)、廣播(broadcast)、歸約求和(reductionsum)都可以使
    的頭像 發表于 02-19 13:08 ?454次閱讀
    基于<b class='flag-5'>TPU-MLIR</b>:詳解EinSum的完整處理過程!

    如何高效處理LMEM中的數據?這篇文章帶你學會!

    WeightReorder是TPU-MLIR的一個pass(參考TPU-MLIR編譯流程圖),其完成了對部分常量數據的Layout變化和合并。本文介紹其中ConvlotionKernel
    的頭像 發表于 01-19 08:33 ?634次閱讀
    如何高效處理LMEM中的數據?這篇文章帶你學會!

    TPU-MLIR開發環境配置時出現的各種問題求解

    按照 TPU-MLIR 開發指南進行環境配置: 2.1. 代碼下載? 代碼路徑: https://github.com/sophgo/tpu-mlir 克隆該
    發表于 01-10 08:02

    FP16轉換報錯的原因?

    /tpu-mlir_v1.2.8-g32d7b3ec-20230802/lib/libbackend_1684x.so(+0x3194f3) [0x7fafc50964f3] /workspace
    發表于 01-10 08:01

    yolov5量化INT8出錯怎么處理?

    [Success]: tpuc-opt yolov5l_bm1684_int8_sym_tpu.mlir --mlir-disable-threading --strip-io-quant=\"
    發表于 01-10 06:40

    重塑翻譯與識別技術:開源語音識別模型Whisper的編譯優化與部署

    :通過修改TPU-MLIR編譯器代碼,可以對Whisper模型性能進行深度優化,使得模型在SOPHONBM1684X處理器上運行時間減少到原來的一半,本篇文章將帶
    的頭像 發表于 01-06 08:33 ?2798次閱讀
    重塑翻譯與識別技術:開源語音識別模型Whisper的編譯優化與部署

    更快的tsv解析代碼分享

    使用正則解析的正則表達式很簡單, 這里直接給代碼, 為了避免重復編譯正則表達式和重新分配內存報錯結果列表, 這里將她們作為參數傳給解析函數.
    的頭像 發表于 12-29 09:45 ?330次閱讀
    更快的tsv<b class='flag-5'>解析</b><b class='flag-5'>代碼</b>分享

    深入學習和掌握TPU硬件架構有困難?TDB助力你快速上手!

    TDB介紹TDB(TPUDeBugger)是針對TPU-MLIR編譯出來的BModel設計的一系列調試工具集合,可以支持對BModel反匯編、結構可視化、單步執行仿真等功能,使用方法靈活。能夠
    的頭像 發表于 12-22 08:33 ?506次閱讀
    深入學習和掌握<b class='flag-5'>TPU</b>硬件<b class='flag-5'>架構</b>有困難?TDB助力你快速上手!

    模糊圖像變高清:TPU-MLIR引領EDSR向MDSR的智能轉換!

    模型介紹EDSR模型,全稱為enhanceddeepsuper-resolutionnetwork(增強的深度學習超分辨率重建網絡)。該模型可以對指定圖片進行超分辨率操作,提高清晰度。而MDSR是多尺度的超分模型,可以一次輸出不同scale的圖片,相比EDSR,可以在相同的性能下,減少很多的參數。EDSR模型結構如下:MDSR模型結構如下:本期內容將會帶領大
    的頭像 發表于 12-11 17:51 ?1191次閱讀
    模糊圖像變高清:<b class='flag-5'>TPU-MLIR</b>引領EDSR向MDSR的智能轉換!

    從HumanEval到CoderEval: 你的代碼生成模型真的work嗎?

    本文主要介紹了一個名為CoderEval的代碼生成大模型評估基準,并對三個代碼生成模型(CodeGen、PanGu-Coder和ChatGP
    的頭像 發表于 11-25 15:55 ?1227次閱讀
    從HumanEval到CoderEval: 你的<b class='flag-5'>代碼</b><b class='flag-5'>生成</b>模型真的work嗎?

    simulink自動生成ROS代碼

    當我們用simulink完成控制程序的搭建后,我們期望下一次可以直接對ROS進行控制,而不是每次都需要啟動matlab和simulink,因此我們可以使用simulink的代碼生成器,生成ROS
    的頭像 發表于 11-15 17:53 ?656次閱讀
    simulink自動<b class='flag-5'>生成</b>ROS<b class='flag-5'>代碼</b>

    TPU-MLIR量化敏感層分析,提升模型推理精度

    背景介紹TPU-MLIR編譯器可以將機器學習模型轉換成算能芯片上運行的bmodel模型。由于浮點數的計算需要消耗更多的計算資源和存儲空間,實際應用中往往采用量化后的模型(也稱定點模型)進行推理。相比
    的頭像 發表于 10-10 10:17 ?1074次閱讀
    <b class='flag-5'>TPU-MLIR</b>量化敏感層分析,提升模型推理精度

    大象轉身,TPU-MLIR適配DragGAN模型前向操作

    操作流程,只需簡單拖拽起點和終點,AI就會根據圖像的變化自動生成和補全圖像。DragGAN可處理的圖像類型豐富多樣,無論是人類表情的調整還是自然風景的變化,都可以在
    的頭像 發表于 10-10 10:17 ?635次閱讀
    大象轉身,<b class='flag-5'>TPU-MLIR</b><b class='flag-5'>適配</b>DragGAN模型前向操作