精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

特斯拉的Occupancy Network占用網(wǎng)絡(luò)如何解決無法識別物體的難題呢?

佐思汽車研究 ? 來源:佐思汽車研究 ? 2024-04-16 17:29 ? 次閱讀

Occupancy Network并非特斯拉發(fā)明,最先提出Occupancy Network的是2018年的論文《Occupancy Networks: Learning 3D Reconstruction in Function Space》,主要作者是Tubingen大學(xué)和博世旗下軟件公司ETAS。更早可以追溯至2012年的論文《Indoor Segmentation and Support Inference from RGBD Images》,主要作者是紐約大學(xué)。而最早可以追溯到1986年的論文《A computational approach to edge detection》。Occupancy Network源自語義分割,語義分割需要連續(xù)邊界而不是傳統(tǒng)的Bounding Box(一般會縮寫為BBox),語義分割再加上2D或3D重建,就是Occupancy Network。不過讓Occupancy Network揚名天下的是特斯拉。

b9e5deb2-fbd3-11ee-a297-92fbcf53809c.png

圖片來源:Occ3D

目前,傳統(tǒng)的3D目標感知算法缺點是過于依賴數(shù)據(jù)集,但數(shù)據(jù)集的分類有限,通常不超過30類,總有不常見的物體類別沒被標注,這些未被標注的物體再次出現(xiàn)在實際場景中,會因為數(shù)據(jù)集中沒有標注,無法識別而被感知系統(tǒng)忽略掉,導(dǎo)致車輛不減速直接撞向物體。這種事故經(jīng)常發(fā)生,最典型的是當車輛有故障,駕駛員下車站在車尾,打開后備箱找維修工具,對于計算機視覺來說就是一個難題,這是個打開的后備箱加人的影像,或者人推著電動車或自行車過馬路,人眼可以一眼看出,但機器就徹底傻眼,復(fù)合目標,從未被標注的物體或從未出現(xiàn)在數(shù)據(jù)集的物體,要探測目標距離,必須先識別目標,探測和識別是一體的,無法分割,畫出BBox,機器無法識別,畫不出BBox,會認為前方?jīng)]有物體,自然不會減速,直接撞上去。

BBox的致命缺陷,一是無法忽略掉物體的幾何細節(jié),二是探測和識別一體,遇到未被標注的物體就會視而不見。Occupancy Network就是為了解決BBox的缺陷而產(chǎn)生的,Occupancy Network學(xué)術(shù)上講就是建模物體詳細幾何和語義的通用且連貫的表征。一個需要從輸入圖像中聯(lián)合估計場景中每個voxel的占據(jù)狀態(tài)和語義標簽的模型,其中占據(jù)狀態(tài)分為free,occupied和unobserved三種,對于occupied的voxel,還需要分配其語義標簽。而對于沒有標注的物體類別,統(tǒng)一劃分為General Objects(GOs),GOs少見但為了安全起見是必須的,否則檢測時經(jīng)常檢測不到。Occupancy Network理論上能解決無法識別物體的難題,但實際中不能。很簡單,Occupancy Network是一種預(yù)測性質(zhì)的神經(jīng)網(wǎng)絡(luò),它不可能達到100%的準確度,自然也就有漏網(wǎng)之魚,還是有無法識別的物體無法探測。

b9f271c2-fbd3-11ee-a297-92fbcf53809c.png

圖片來源:網(wǎng)絡(luò)

占用網(wǎng)絡(luò)算法排名,第一名是英偉達的FB-OCC,小米和北大聯(lián)合的UniOcc排名第三,華為僅排名第六。目前基于BEV的解決方案很多。這些解決方案在經(jīng)過一定的修改后都可以適用于 3D occupancy 預(yù)測,門檻不高。

目前Occupancy Network準確度有多少呢?目前最頂級的Occupancy Network的mIoU是54.19%。mIoU是預(yù)測值與真值的交并比,某種意義上可以看做是準確度。這和傳統(tǒng)激光雷達語義分割差距極大,2021年的激光雷達語義分割就能達到80%以上。

ba19bf02-fbd3-11ee-a297-92fbcf53809c.png

圖片來源:OctreeOcc

另一份資料,OctreeOcc論文中提到,目前得分最高的是上海科技大學(xué)的OctreeOcc,也就是上表中的“Ours”。排名第二的是英偉達的FB-OCC,與OctreeOcc差距很小。

ba37c8d0-fbd3-11ee-a297-92fbcf53809c.png

圖片來源:KITTI

KITTI數(shù)據(jù)集3D語義場景完成的mIoU上得分最高的是鑒智機器人的OccFormer。

我們就來深入了解一下這OctreeOcc、FB-OCC和OccFormer三個模型。

先來看英偉達的FB-OCC,論文《FB-OCC: 3D Occupancy Prediction based on Forward-Backward View Transformation》,論文很簡短,只有5頁。

FB-OCC整體架構(gòu)

ba52c16c-fbd3-11ee-a297-92fbcf53809c.png

圖片來源:《FB-OCC: 3D Occupancy Prediction based on Forward-Backward View Transformation》論文

FB-OCC的預(yù)測頭

bad0d0ca-fbd3-11ee-a297-92fbcf53809c.png

圖片來源:《FB-OCC: 3D Occupancy Prediction based on Forward-Backward View Transformation》論文

語義和深度聯(lián)合預(yù)訓(xùn)練

baeaf96e-fbd3-11ee-a297-92fbcf53809c.png

圖片來源:《FB-OCC: 3D Occupancy Prediction based on Forward-Backward View Transformation》論文

英偉達的FB-OCC非常簡潔,基本上就是BEVFormer加了一個占用網(wǎng)絡(luò)head。純視覺的3D感知模型的核心模塊是 view transformation 模塊。這個模塊包括兩個主要的視圖轉(zhuǎn)換方式:正向投影(LSS)和反向投影(BEVFormer)。FB-BEV 提供了一個統(tǒng)一的設(shè)計,利用這兩種方法,揚長避短。在FB-OCC中,使用前向投影來生成初始的3D體素表征,然后將其壓縮為一個扁平的 BEV 特征圖。BEV特征圖被視為BEV空間內(nèi)的queries,并與圖像編碼器特征一起獲得密集的幾何信息。然后將3D體素表征和優(yōu)化后的BEV表征的融合特征輸入到后續(xù)的任務(wù)頭中。

英偉達采用了預(yù)訓(xùn)練,通過深度估計任務(wù)增強模型的幾何意識。英偉達對nuScenes數(shù)據(jù)集進行了廣泛的預(yù)訓(xùn)練,主要集中在深度估計上。值得注意的是,深度預(yù)訓(xùn)練缺乏語義層面的監(jiān)督。為了減輕模型過度偏向深度信息的風(fēng)險,可能導(dǎo)致語義先驗的損失(特別是考慮到模型的大規(guī)模特性,容易出現(xiàn)過擬合),在進行深度預(yù)測任務(wù)的同時,也要致力于預(yù)測二維語義分割標簽,如上圖3所示。

鑒智機器人的OccFormer框架

bafa341a-fbd3-11ee-a297-92fbcf53809c.png

圖片來源:OccFormer

OccFormer以單目圖像或環(huán)視圖像作為輸入,首先由圖像編碼器提取多尺度特征,然后基于深度預(yù)測和體素Voxel池化得到三維場景特征。隨后,該三維特征首先經(jīng)過dual-path transformer encoder進行三維視角下的特征提取,得到多尺度體素特征。最終transformer occupancy decoder融合多尺度特征,預(yù)測不同類別的binary mask并結(jié)合得到最終的occupancy預(yù)測。

圖像編碼器的輸出為輸入分辨率的 1/16 的融合特征圖: 來表示提取的特征。

然后是英偉達提出的LSS BEV算法,編碼后的圖像特征被處理以生成 context feature

bb0cd804-fbd3-11ee-a297-92fbcf53809c.png

N 是相機視角的數(shù)量,C是通道數(shù),(H,W) 代表分辨率。

離散的深度分布是

bb1ac568-fbd3-11ee-a297-92fbcf53809c.png

二者相乘得到點云的表示:

bb2bf3b0-fbd3-11ee-a297-92fbcf53809c.png

最終進行體素池化以創(chuàng)建三維特征 3D feature volume

bb445770-fbd3-11ee-a297-92fbcf53809c.png

其中(X, Y, Z) 表示三維體的分辨率。

bb566686-fbd3-11ee-a297-92fbcf53809c.png

圖片來源:OccFormer

由于駕駛場景中沿著水平方向的信息變化最劇烈,而高度方向上信息密度相對較低,因此三維特征編碼的重點應(yīng)該放在水平方向上。但由于occupancy需要三維的細粒度信息,將三維特征完全壓平進行處理是不可取的。輸入的三維特征會經(jīng)過局部和全局兩條路徑、沿著水平方向進行語義特征提取,兩條路徑的輸出會通過自適應(yīng)融合得到輸出的三維場景特征。對于輸入的三維特征,局部 local 和全局 global 路徑首先沿水平方向并行地聚集語義信息。接下來,雙路徑輸出通過 sigmoid-weighted 進行融合。局部路徑主要針對提取細粒度的語義結(jié)構(gòu)。由于水平方向包含最多的變化,通過一個共享編碼器并行處理所有BEV切片能夠保留大部分語義信息。將高度維度合并到批處理維度,并使用窗口化自注意力作為局部特征提取器,它可以利用較小的計算量動態(tài)地關(guān)注遠距離區(qū)域;另一方面,全局路徑旨在高效捕獲場景級語義布局。為此,全局路徑首先通過沿高度維度進行平均池化來獲取BEV特征,并采用相同的窗口化自注意力實現(xiàn)特征提取,為了進一步增大全局感受野,還使用了ASPP結(jié)構(gòu)來捕獲全局上下文。

bb64f4c6-fbd3-11ee-a297-92fbcf53809c.png

W指的是沿高度維度生成聚合權(quán)重的 FFN;σ(·) 是 sigmoid 函數(shù);“unsqueeze” 是沿高度方向擴展全局 2D 特征。

語義分割方面采用了META提出的Mask2Former ,Mask2Former建立在一個簡單的元框架 (MaskFormer)和一個新的 Transformer 解碼器上,其關(guān)鍵組成部分為掩碼注意力(Masked-attention),通過將交叉注意力限制在預(yù)測的掩碼區(qū)域內(nèi)來提取局部特征。與為每個任務(wù)(全景、實例或語義)設(shè)計專門模型相比,Mask2Former 節(jié)省了3倍的研究工作,并且有效節(jié)省計算資源。Mask2Former 在全景分割(COCO上的 57.8 PQ)、實例分割(COCO 上的 50.1 AP)和語義分割(ADE20K 上的 57.7 mIoU)上都實現(xiàn)了SOTA。

利用輸入的多尺度體素特征 (multi-scale voxel features) 和參數(shù)化的查詢特征 (parameterized query features) ,transformer decoder 對查詢特征進行迭代更新,以達到預(yù)期的類別語義。在每個迭代內(nèi),查詢特征 (queries features)Q1, 通過 masked attention 來關(guān)注它們相對應(yīng)前景區(qū)域。

bb726bba-fbd3-11ee-a297-92fbcf53809c.png

然后進行 self-attention,以交換上下文信息,然后用FFN進行特征投影。在每個迭代結(jié)束時,每個Q1被投影來預(yù)測它的語義分對數(shù) (semantic logits)Pi,和掩膜嵌入 (mask embedding)εmask,后者通過 一個 per-voxel 嵌入εvoxel和 sigmoid 函數(shù)的點積進一步轉(zhuǎn)化為二進制的三維掩膜Mi。

OctreeOcc框架

bb80e596-fbd3-11ee-a297-92fbcf53809c.png

圖片來源:OctreeOcc

OctreeOcc框架如上圖, 實際就是用傳統(tǒng)的八叉數(shù)空間表示法取代了傳統(tǒng)的BEV或Voxel。

不過目前這些前沿試驗性質(zhì)的論文都無法落地。

bb9aa4c2-fbd3-11ee-a297-92fbcf53809c.png

圖片來源:OctreeOcc

左邊的是Occ3D-nuScenes,專為占用網(wǎng)絡(luò)測試搞的數(shù)據(jù)集,右邊的是KITTI的語義分割測試數(shù)據(jù)集,占用網(wǎng)絡(luò)模型消耗內(nèi)存驚人,最少都需要25GB,對運算資源消耗驚人,即便是用英偉達8張A100,最快的也要386毫秒,自動駕駛最低門檻10Hz都達不到。這個每幀都需要讀出模型一次,也就說需要容量至少超過48GB的高寬帶存儲,最好是HBM3,GDDR6都非常勉強,而HBM價格驚人,英偉達H100的HBM內(nèi)存容量也不過80GB。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    44

    文章

    3506

    瀏覽量

    132857
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4716

    瀏覽量

    99777
  • 特斯拉
    +關(guān)注

    關(guān)注

    66

    文章

    6196

    瀏覽量

    126109
  • 激光雷達
    +關(guān)注

    關(guān)注

    966

    文章

    3843

    瀏覽量

    188354

原文標題:特斯拉的Occupancy Network占用網(wǎng)絡(luò)真能解決無法識別物體難題?

文章出處:【微信號:zuosiqiche,微信公眾號:佐思汽車研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    NUCLEO-H723無法識別到stlink如何解決?

    我使用了一個USB隔離模塊,經(jīng)過測試,nucleo-L4和nucleo-H745可以識別,但是NUCLEO-H723無法識別到stlink,貌似只有直連電腦才可以,請問這個該如何解
    發(fā)表于 03-13 07:09

    網(wǎng)絡(luò)分析器無法識別模型

    我正在使用E4418A功率計和N3383A網(wǎng)絡(luò)分析儀。網(wǎng)絡(luò)分析器無法識別該模型。我有Newtok分析儀Agilent IO 16.3,它在那里重現(xiàn)了E4418A。使用舊的437B功率計
    發(fā)表于 03-08 12:31

    何解決無法添加單片機型號到KEIL中的這個問題?

    何解決無法添加單片機型號到KEIL中的這個問題?
    發(fā)表于 11-05 06:51

    怎樣去解決無法使用內(nèi)置Bootloader的DFU方式進行固件升級的問題

    為什么無法使用內(nèi)置Bootloader的DFU方式進行固件升級?怎樣去解決無法使用內(nèi)置Bootloader的DFU方式進行固件升級的問題?
    發(fā)表于 11-11 06:16

    基于深度神經(jīng)網(wǎng)絡(luò)的激光雷達物體識別系統(tǒng)

    的激光雷達物體識別技術(shù)一直難以在嵌入式平臺上實時運行。經(jīng)緯恒潤經(jīng)過潛心研發(fā),攻克了深度神經(jīng)網(wǎng)絡(luò)在嵌入式平臺部署所面臨的算子定制與加速、量化策略、模型壓縮等難題,率先實現(xiàn)了高性能激光檢測
    發(fā)表于 12-21 07:59

    何解網(wǎng)絡(luò)無法識別問題

    網(wǎng)絡(luò)問題分類網(wǎng)絡(luò)無法識別問題還是比較好排查,但是如果涉及到網(wǎng)絡(luò)丟包牽扯的環(huán)節(jié)太多了比如交換芯片是否異常,對方的工作模式是否正常、
    發(fā)表于 12-23 06:08

    stm32 NUCLEO開發(fā)板板載stlink無法識別何解決?

    我使用了一個USB隔離模塊,經(jīng)過測試,nucleo-L4和nucleo-H745可以識別,但是NUCLEO-H723無法識別到stlink,貌似只有直連電腦才可以,請問這個該如何解
    發(fā)表于 08-04 06:22

    新能源車車牌無法識別怎么辦_新能源車牌識別不了

    本文介紹了新能源車牌的變化、新能源汽車車牌為何出現(xiàn)識別漏洞、新能源車車牌無法識別的原因是什么以及如何解決新能源車牌無法
    發(fā)表于 01-05 16:06 ?4.1w次閱讀

    深度神經(jīng)網(wǎng)絡(luò)識別物體上的能力怎樣

    深度神經(jīng)網(wǎng)絡(luò)非常善于識別物體,但是當涉及到他們的相互作用的推理時,即使是最先進的神經(jīng)網(wǎng)絡(luò)也在努力。
    發(fā)表于 04-14 15:24 ?776次閱讀

    何解決鎖相環(huán)無法鎖定

    何解決鎖相環(huán)無法鎖定
    發(fā)表于 11-02 08:16 ?3次下載
    如<b class='flag-5'>何解</b>決鎖相環(huán)<b class='flag-5'>無法</b>鎖定

    介紹一種對標Tesla Occupancy的開源3D語義場景補全?法

    在 2022 年的 Tesla AI Day 上, Tesla 將 Bev(鳥瞰圖) 感知進?步升級,提出了基于 Occupancy Network 的感知?法。
    的頭像 發(fā)表于 03-08 16:44 ?1059次閱讀

    超長隧道對講機怎么解決無網(wǎng)絡(luò)通信難題

    超長隧道對講機怎么解決無網(wǎng)絡(luò)通信難題?下面河南寶藍小編為大家詳細介紹下。
    的頭像 發(fā)表于 03-20 16:34 ?762次閱讀

    何解決汽車大功率集成磁元件的散熱難題?

    何解決汽車大功率集成磁元件的散熱難題
    的頭像 發(fā)表于 11-29 11:57 ?458次閱讀
    如<b class='flag-5'>何解</b>決汽車大功率集成磁元件的散熱<b class='flag-5'>難題</b>?

    為什么電流探頭會出現(xiàn)無法消磁的情況?該如何解?

    為什么電流探頭會出現(xiàn)無法消磁的情況?該如何解? 電流探頭無法消磁的情況可能是由于多種因素造成的,包括材料的性質(zhì)、使用條件以及操作不當?shù)?/div>
    的頭像 發(fā)表于 01-08 17:21 ?531次閱讀

    城市高階智能駕駛從此擺脫激光雷達:百度聯(lián)合極越行業(yè)首推OCC占用網(wǎng)絡(luò)功能

    1月15日,極越01迎來交付以來的首次重大整車OTA升級,百度Apollo與極越聯(lián)合研發(fā)的OCC占用網(wǎng)絡(luò)Occupancy Network)功能提前體驗是此次OTA升級的最大亮點。
    的頭像 發(fā)表于 01-16 17:23 ?1166次閱讀