精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何在LiDAR點云上進行3D對象檢測

科技觀察員 ? 來源:Xinyu Chen ? 作者:Xinyu Chen ? 2022-04-26 17:41 ? 次閱讀

該項目將借助KV260上的PYNQ-DPU覆蓋,從而能夠使我們在LiDAR點云上進行3D對象檢測比以往任何時候都更加高效!

背景

在構建自動駕駛汽車、自動導航機器人和其他現實世界的應用程序時,環境感知起著不可或缺的作用。

為什么要在點云上進行3D對象檢測?

雖然基于深度學習的相機數據二維對象檢測顯示出很高的準確性,但它可能不是有效的活動,如定位、測量對象之間的距離和計算深度信息

LiDAR傳感器生成的點云提供對象的3D信息,以更有效地定位對象并表征形狀。因此,點云上的3D對象檢測正在各種應用中出現,尤其是在自動駕駛方面。

盡管如此,設計基于LiDAR的3D對象檢測系統仍具有挑戰性。首先,此類系統需要在模型推理中進行大量計算。其次,由于點云數據是不規則的,處理管道需要預處理和后處理才能提供端到端的感知結果。

KV260與3D物體檢測系統完美匹配。模型推理的昂貴計算可以卸載到KV260的可編程邏輯部分并由其加速,而KV260強大的ARM內核能夠處理預處理和后處理任務。

設計概述

我們現在討論選擇的用于點云上3D對象檢測的深度學習模型以及包括軟件和硬件的系統概述。

網絡架構

作為對現有工作的完整性檢查,我們選擇了基于ResNet的關鍵點特征金字塔網絡(KFPN),這是第一個在KITTI基準上具有最先進性能的單目3D檢測實時系統。特別是,我們采用了它在點云上的開源PyTorch實現,稱為SFA3D。

pYYBAGJnvfWAavm5AAHyyN3Lr_U640.png

KV260 上的 PYNQ-DPU

之所以我們使用Xilinx 開發板的 Ubuntu Desktop 20.04.3 LTS而不是 Petalinux 作為 KV260 上的操作系統,是因為 Ubuntu 是一個很好的開發環境,用于安裝預處理點云和后處理結果所需的軟件包。另一方面,KV260 對 Pynq 和 DPU 覆蓋的支持避免了從頭設計高效的 DPU,使我們能夠在 python 環境下工作。這在很大程度上簡化了基于 CPU/GPU 的深度學習實現向 KV260 的遷移。

設置環境

按照官方指南將Ubuntu鏡像安裝到KV260,然后參考Github在Ubuntu操作系統中安裝Pynq 。Git 通過執行以下命令克隆所有必需的文件并將所需的包安裝到板上。

git clone https://github.com/SoldierChen/DPU-Accelerated-3D-Object-Detection-on-Point-Clouds.git
cd DPU-Accelerated-3D-Object-Detection-on-Point-Clouds
pip install -r requirements.txt

在這里,我們需要 Pytorch 1.4,因為 Pynq DPU 的 VART 是 v1.4。

數據準備

需要下載的數據包括:

Velodyne 點云(29 GB)

對象數據集的訓練標簽(5 MB)

對象數據集的相機校準矩陣(16 MB)

對象數據集的左側彩色圖像(12 GB) (僅用于可視化目的)

要使用 3D 框可視化 3D 點云,讓我們執行:

cd model_quant_compile/data_process/
python kitti_dataset.py

poYBAGJnve-ATVJiAANp_yMD2lk154.png

模型訓練

python train.py --gpu_idx 0

該命令使用一個 GPU 進行訓練,但它支持分布式訓練。此外,您可以選擇 fpn_resnet 或 resnet 作為目標模型。訓練后的模型將存儲在名為“Model_restnet/fpn_resnet_epoch_#”的檢查點文件夾中。根據您的硬件,epoch 可以從 10 到 300,精度越高越好。

模型量化和編譯

同樣,由于 Pynq 的 VART 是 V1.4,我們需要 VITIS AI v1.4 而不是最新版本(V2.0)來進行模型量化。

# install the docker at first (if not stalled)
docker pull xilinx/vitis-ai-cpu:1.4.1.978

# run the docker
./docker_run.sh xilinx/vitis-ai-cpu:1.4.1.978

pYYBAGJnveuANqppAAHNXTdxXq4184.png

然后我們使用以下命令量化模型:

# activate the pytorch environment
conda activate vitis-ai-pytorch

# install required packages
pip install -r requirements.txt

# configure the quant_mode to calib
ap.add_argument('-q', '--quant_mode', type=str, default='calib', choices=['calib','test'], help='Quantization mode (calib or test). Default is calib')
# here, it quantize the example model: Model_resnet_18_epoch_10.pth
python quantize.py

# configure the quant_mode to test
ap.add_argument('-q', '--quant_mode', type=str, default='test', choices=['calib','test'], help='Quantization mode (calib or test). Default is calib')
# here, it outputs the quantized model.
python quantize.py

接下來,我們將編譯模型:

./compile.sh zcu102 build/

不要介意 zcu102 與 KV260 共享相同的 DPU 架構。您將看到成功編譯的以下消息:

pYYBAGJnveOALEBRAAIqqYmpSWs883.png

到目前為止,我們得到了可以在 DPU 上執行的編譯 xmodel,在 KV260 上過度執行。接下來,我們將其部署在板上并開發應用程序代碼

KV260部署

按照官方指南,我們先在KV260上搭建好Ubuntu操作系統。然后,我們按照PYNQ-DPU GitHub在板上安裝 python 。

搭建好板子后,我們需要安裝git,將代碼克隆到板子上,并將編譯好的xmodel復制到文件夾中。

應用程序代碼設計

這里我們將介紹如何調用并與 DPU 接口進行推理。

我們首先加載 DPU 覆蓋和自定義的 xmodel。然后,重要的是,必須知道輸入和輸出張量信息才能與數據集協調。在這里,我們只有一個張量作為輸入,五個張量作為輸出。相應地分配輸入和輸出緩沖區。

# load model and overly
overlay = DpuOverlay("dpu.bit")
overlay.load_model("./CNN_zcu102.xmodel")
dpu = overlay.runner

# get tensor information
inputTensors = dpu.get_input_tensors()
outputTensors = dpu.get_output_tensors()
shapeIn = tuple(inputTensors[0].dims)
outputSize = int(outputTensors[0].get_data_size() / shapeIn[0])
shapeOut = tuple(outputTensors[0].dims)
shapeOut1 = tuple(outputTensors[1].dims)
shapeOut2 = tuple(outputTensors[2].dims)
shapeOut3 = tuple(outputTensors[3].dims)
shapeOut4 = tuple(outputTensors[4].dims)

# allocate input and output buffers.
# Note the output is a list of five tensors.
output_data = [np.empty(shapeOut, dtype=np.float32, order="C"),
np.empty(shapeOut1, dtype=np.float32, order="C"),
np.empty(shapeOut2, dtype=np.float32, order="C"),
np.empty(shapeOut3, dtype=np.float32, order="C"),
np.empty(shapeOut4, dtype=np.float32, order="C")]
# the input is only one tensor.
input_data = [np.empty(shapeIn, dtype=np.float32, order="C")]

image = input_data[0]

一次性推理的過程封裝在下面的函數中。在這里,我們將輸入張量置換為 DPU 輸入張量的形狀,并將張量置換為后處理所需的形狀。這對于正確的結果至關重要。

def do_detect(dpu, shapeIn, image, input_data, output_data, configs, bevmap, is_front):

if not is_front:
bevmap = torch.flip(bevmap, [1, 2])
input_bev_maps = bevmap.unsqueeze(0).to("cpu", non_blocking=True).float()

# do permutation
input_bev_maps = input_bev_maps.permute(0, 2, 3, 1)
image[0,...] = input_bev_maps[0,...] #.reshape(shapeIn[1:])

job_id = dpu.execute_async(input_data, output_data)
dpu.wait(job_id)

# convert the output arrays to tensors for the following post-processing.
outputs0 = torch.tensor(output_data[0])
outputs1 = torch.tensor(output_data[1])
outputs2 = torch.tensor(output_data[2])
outputs3 = torch.tensor(output_data[3])
outputs4 = torch.tensor(output_data[4])

# do permutation
outputs0 = outputs0.permute(0, 3, 1, 2)
outputs1 = outputs1.permute(0, 3, 1, 2)
outputs2 = outputs2.permute(0, 3, 1, 2)
outputs3 = outputs3.permute(0, 3, 1, 2)
outputs4 = outputs4.permute(0, 3, 1, 2)
outputs0 = _sigmoid(outputs0)
outputs1 = _sigmoid(outputs1)

# post-processing
detections = decode(
outputs0,
outputs1,
outputs2,
outputs3,
outputs4, K=configs.K)
detections = detections.cpu().numpy().astype(np.float32)
detections = post_processing(detections, configs.num_classes, configs.down_ratio, configs.peak_thresh)

return detections[0], bevmap

在 KV260 上執行

通過運行以下命令,將在 DPU 上執行演示數據的推理:

python demo_2_sides-dpu.py

poYBAGJnvdyAL9B1AAXY097iyE0689.png

然后運行以下命令:

pythondemo_front-dpu.py

pYYBAGJnvdiAIvgzAAQ2PWJcjnQ482.png

性能范圍從10到20FPS,比在服務器級CPU(IntelXeonGold6226R)上的執行速度快100到200倍。

結論

總之,我們展示了在KV260上使用AMD-XilinxDPU來加速基于點云的3D對象檢測是多么容易。為了進一步提升性能,我們計劃通過使用多個DPU實例來優化模型推理階段,以及通過使用多線程和批處理來優化預處理和后處理階段。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 3D
    3D
    +關注

    關注

    9

    文章

    2862

    瀏覽量

    107324
  • LIDAR
    +關注

    關注

    10

    文章

    323

    瀏覽量

    29357
收藏 人收藏

    評論

    相關推薦

    LiDAR如何構建3D?如何利用LiDAR提供深度信息

    3D模型。LiDAR 系統捕獲的圖像中的每個像素都將具有與之關聯的深度。這樣可以更好地識別物體,并消除僅采用圖像傳感器獲得的2D圖像中可能存在的模糊。 LiDAR如何構建
    的頭像 發表于 04-06 12:00 ?4312次閱讀
    <b class='flag-5'>LiDAR</b>如何構建<b class='flag-5'>3D</b><b class='flag-5'>點</b><b class='flag-5'>云</b>?如何利用<b class='flag-5'>LiDAR</b>提供深度信息

    基于3D的多任務模型在板端實現高效部署

    對于自動駕駛應用來說,3D 場景感知至關重要。3D數據就是具有3D特征的數據。一方面,3D
    的頭像 發表于 12-28 16:35 ?1382次閱讀
    基于<b class='flag-5'>3D</b><b class='flag-5'>點</b><b class='flag-5'>云</b>的多任務模型在板端實現高效部署

    基于深度學習的方法在處理3D進行缺陷分類應用

    背景部分介紹了3D應用領域中公開可訪問的數據集的重要性,這些數據集對于分析和比較各種模型至關重要。研究人員專門設計了各種數據集,包括用于3D形狀分類、
    的頭像 發表于 02-22 16:16 ?1020次閱讀
    基于深度學習的方法在處理<b class='flag-5'>3D</b><b class='flag-5'>點</b><b class='flag-5'>云</b><b class='flag-5'>進行</b>缺陷分類應用

    制作3D 對象,然后顯示。 導入3D對象 ,然后顯示。

    PS:Labview 版本是2014 最近開始測試 Labview的3D相關的功能。 制作3D 對象,然后顯示。 導入3D對象 ,然后顯示。
    發表于 12-23 22:00

    如何同時獲取2d圖像序列和相應的3d

    如何同時獲取2d圖像序列和相應的3d?以上來自于谷歌翻譯以下為原文How to obtain the sequence of 2d im
    發表于 11-13 11:25

    3D技術介紹及其與VR體驗的關系

    ;x>nkedIn上發表了一篇跟澳大利亞科技公司優立(Euclideon)所使用的數據有關的文章,并在業內引起了一番討論。 1. 的問題
    發表于 09-15 09:28 ?20次下載

    問題的介紹及3D技術在VR中的應用

    1. 的問題 是由3D掃描硬件收集的數據,如FARO的Focus 3D激光掃描儀和Shi
    發表于 09-27 15:27 ?17次下載

    何在PADS 3D Layout中進行命令操作

    了解如何在 PADS 3D Layout 中對您的 PCB 使用“Measure Distance”和“Measure Minimum Distance”命令。
    的頭像 發表于 05-15 06:05 ?5157次閱讀
    如<b class='flag-5'>何在</b>PADS <b class='flag-5'>3D</b> Layout中<b class='flag-5'>進行</b>命令操作

    基于圖卷積的層級圖網絡用于基于3D目標檢測

    論文:A Hierarchical Graph Network for 3D Object Detection on Point Clouds 由于大多數現有的對象
    的頭像 發表于 06-21 12:15 ?6182次閱讀
    基于圖卷積的層級圖網絡用于基于<b class='flag-5'>點</b><b class='flag-5'>云</b>的<b class='flag-5'>3D</b>目標<b class='flag-5'>檢測</b>

    基于層級圖網絡的圖卷積,用完成3D目標檢測

    由于大多數現有的對象檢測方法不能充分適應點的特征(例如稀疏性),所以一些關鍵的語義信息(如物體形狀)不能被很好的捕捉到。本文提出了一種
    的頭像 發表于 12-24 15:25 ?628次閱讀

    何為3D語義分割

    融合標注使用的3D標注工具仍以3D立體框為主,但在3D數據以外,還需要使用2D標注工具在
    的頭像 發表于 07-21 15:52 ?8542次閱讀

    3D數據集在3D數字化技術中的應用

    隨著計算機視覺技術的不斷發展,3D 數字化技術已經成為了當今工業制造領域和三維醫學影像領域的關鍵技術。然而,構建高精度、高分辨率的 3D 數據集對于實現這一技術至關重要。在這篇文章
    的頭像 發表于 05-06 16:46 ?1369次閱讀

    基于3D障礙物檢測介紹

    基于3D障礙物檢測 主要有以下步驟: 數據的處理 基于
    的頭像 發表于 06-26 10:22 ?924次閱讀
    基于<b class='flag-5'>點</b><b class='flag-5'>云</b>的<b class='flag-5'>3D</b>障礙物<b class='flag-5'>檢測</b>介紹

    基于深度學習的3D實例分割方法

    3D實例分割(3DIS)是3D領域深度學習的核心問題。給定由云表示的 3D 場景,我們尋求為每個
    發表于 11-13 10:34 ?2177次閱讀
    基于深度學習的<b class='flag-5'>3D</b><b class='flag-5'>點</b><b class='flag-5'>云</b>實例分割方法

    兩種應用于3D對象檢測深度學習方法

    隨著激光雷達傳感器(“光檢測和測距”的縮寫,有時稱為“激光掃描”,現在在一些最新的 iPhone 上可用)或 RGB-D 攝像頭(一種 RGB-D 攝像頭)的興起,3D 數據變得越來越
    的頭像 發表于 01-03 10:32 ?929次閱讀
    兩種應用于<b class='flag-5'>3D</b><b class='flag-5'>對象</b><b class='flag-5'>檢測</b>的<b class='flag-5'>點</b><b class='flag-5'>云</b>深度學習方法