精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

評估3D-CoCo在三個廣泛使用的自動駕駛數(shù)據(jù)集上的有效性和泛化性

工程師鄧生 ? 來源:3D視覺工坊 ? 作者:HT ? 2022-09-13 10:14 ? 次閱讀

摘要

大多數(shù)現(xiàn)有的點云檢測模型都需要大規(guī)模、密集標注的數(shù)據(jù)集。由于不同的物理環(huán)境或激光雷達傳感器配置引起的幾何變化,它們通常在域適應(yīng)設(shè)置中表現(xiàn)不佳。因此,在不訪問目標域的標簽的情況下,學(xué)習(xí)有標記的源域和新的目標域之間的可遷移特征具有挑戰(zhàn)性但很有價值。為了解決這個問題,我們引入了3D對比協(xié)同訓(xùn)練(3D-CoCo)框架,該框架有兩項技術(shù)貢獻。

1)首先,3D-CoCo 的靈感來自于我們的觀察,即鳥瞰圖 (BEV) 特征比低級幾何特征更容易轉(zhuǎn)移。因此,我們提出了一種新的協(xié)同訓(xùn)練架構(gòu),其中包括具有特定域參數(shù)的單獨 3D 編碼器,以及用于學(xué)習(xí)域不變特征的 BEV 轉(zhuǎn)換模塊。

2)其次,3D-CoCo 將對比實例對齊的方法擴展到點云檢測,其性能在很大程度上受到偽標簽導(dǎo)致的BEV特征的虛擬分布與真實分布之間不匹配的阻礙。通過考慮特定幾何先驗,精心設(shè)計的具有變換點云的3D-CoCo,大大減少了不匹配。 我們使用三個大型 3D 數(shù)據(jù)集構(gòu)建新的域適應(yīng)benchmarks。實驗結(jié)果表明,我們提出的 3D-CoCo 有效地縮小了域差距,并大大優(yōu)于SOTA方法。

一、引言

3D 點云檢測在現(xiàn)實場景中顯示出重要的意義,例如自動駕駛 ,而最近的進展主要是由高精度 LiDAR 傳感器和大規(guī)模、密集標注的點云數(shù)據(jù)集 的出現(xiàn)推動的。

大多數(shù)現(xiàn)有的 3D 檢測模型都假設(shè)訓(xùn)練域和測試域是獨立且同分布的。然而,在實踐中,由于物理環(huán)境或 LiDAR 傳感器配置的差異,包括不同數(shù)量的激光束和安裝位置等,域轉(zhuǎn)移通常是不可避免的。

為了解決這個問題,關(guān)于點云檢測的無監(jiān)督域適應(yīng)問題的早期研究,其目的是通過學(xué)習(xí)可遷移特征,將3D檢測器從有標記的源域有效地適配到新的無標記的目標域。

以前的圖像數(shù)據(jù)的域適應(yīng)方法并不容易適用于點云。如圖 1 所示,與 2D 場景的域偏移通常存在于圖像外觀不同,3D 場景的域偏移主要體現(xiàn)在點云的幾何變化上。由于來自不同域的 2D 圖像具有相同的均勻分布像素的網(wǎng)格拓撲,因此大多數(shù)域適應(yīng)方法都利用了具有域共享參數(shù)的圖像編碼器,現(xiàn)有的 3D 遷移學(xué)習(xí)模型(如 PointDAN )也采用了這種方法。然而,由于不同點集之間存在嚴重的low-level幾何偏移,我們認為某些特征是可遷移的,而某些特征不能用于 3D 目標檢測,這需要重新考慮不同級的點云表征的可遷移性。

為此,我們提出了一個名為 3D Contrastive Co-training (3D-CoCo) 的新框架,其架構(gòu)包含具有特定域參數(shù)的單獨 3D 編碼器、與領(lǐng)域無關(guān)的 BEV 轉(zhuǎn)換模塊和最終檢測頭。架構(gòu)設(shè)計的關(guān)鍵思想是,具有類似于圖像的網(wǎng)格結(jié)構(gòu)的 BEV 特征可以比低級 3D 特征更具可遷移性,從而可以更好地與 2D 視覺中的高級遷移學(xué)習(xí)技術(shù)集成,從而大大減少幾何偏移。與特定域編碼器協(xié)同訓(xùn)練架構(gòu)的另一個好處是,除了改善域適應(yīng)結(jié)果外,它還保持了域內(nèi)的性能。

5e221d0a-32f0-11ed-ba43-dac502259ad0.png

圖 1:2D場景 和 3D 場景之間域偏移的比較。

1)左圖:2D 場景中的域偏移主要體現(xiàn)在外觀變化上,例如自動駕駛中的天氣或環(huán)境變化。

2)右圖:3D 域偏移通常表示為幾何變化,這不僅來自外部環(huán)境,還來自內(nèi)部傳感器配置。 此外,3D-CoCo 還具有一個新的端到端對比學(xué)習(xí)框架,該框架包含兩個主要組件,即基于鳥瞰圖 (BEV) 特征的對比實例對齊,以及使用轉(zhuǎn)換的點云的困難樣本挖掘。對比實例對齊的目的是,將由偽標簽誘導(dǎo)的相似樣本簇的特征質(zhì)心推到彼此更近的位置,無論它們是在同一域還是不同域中。

此外,我們考慮了 BEV 特征的真實分布與用于對比學(xué)習(xí)的虛擬特征分布之間的不匹配,這是由有偏差的偽標簽引起的。具體來說,我們利用點云的可編輯性,通過對 3D 數(shù)據(jù)應(yīng)用特定的變換函數(shù)來執(zhí)行困難樣本挖掘。困難樣本作為對比協(xié)同訓(xùn)練的有效補充,可以進一步減少跨域的幾何偏移,防止自適應(yīng)模型陷入局部最小值。 值得注意的是,還有另一項工作討論了點云檢測的遷移學(xué)習(xí),它利用了自訓(xùn)練pipeline,使用目標域數(shù)據(jù)上的偽標簽重新訓(xùn)練模型。

與這些方法相比,我們采用了不同的問題設(shè)置,使用有標記的源域數(shù)據(jù)和未標記的目標域數(shù)據(jù)進行協(xié)同訓(xùn)練。通過消融研究,我們觀察到單獨編碼器和對比協(xié)同訓(xùn)練方案,可以逐步過濾特定域的特征,并學(xué)習(xí)更多跨域的可轉(zhuǎn)移知識。 我們評估了 3D-CoCo 在三個廣泛使用的自動駕駛數(shù)據(jù)集上的有效性和泛化性,這些數(shù)據(jù)集由異構(gòu)激光雷達傳感器收集,包括Waymo、nuScenes和KITTI

3D-CoCo 被證明在不同的無監(jiān)督域適應(yīng)benchmarks上,顯著優(yōu)于現(xiàn)有的點云檢測方法。

二、預(yù)備工作 問題設(shè)置。

點云檢測的傳統(tǒng)設(shè)置是學(xué)習(xí)一個基本的 3D對象檢測器 D,它從點云P中對由Y表示的m個對象進行分類和定位:

5e4a584c-32f0-11ed-ba43-dac502259ad0.png

5e6a49a4-32f0-11ed-ba43-dac502259ad0.png


與點云檢測的典型設(shè)置相比,我們更關(guān)注模型在目標域測試集上的性能,這需要額外的精心設(shè)計的模塊來學(xué)習(xí)可遷移的特征。

當(dāng)前的點云探測器

當(dāng)前的 3D 點云檢測器通常由三個模塊組成:3D 編碼器 E、鳥瞰圖 (BEV) 轉(zhuǎn)換模塊 U 和檢測頭 H

5e8c6c32-32f0-11ed-ba43-dac502259ad0.png



為了證明所提出方法的通用性,我們采用了兩種主流架構(gòu),即 VoxelNet 和 PointPillars ,并使用不同的點云處理pipelines作為 3D 編碼器的替代方案。VoxelNet 將點云量化為小的 3D 體素特征,然后使用 3D CNN 沿體素高度將它們壓縮成 2D BEV 空間,而 PointPillars 將點云量化為固定尺寸大小的 2D 網(wǎng)格上的垂直柱,然后對每個柱執(zhí)行線性轉(zhuǎn)換和最大池化以獲得 BEV 表征。但他們都沒有明確考慮遷移學(xué)習(xí)設(shè)置中的域偏移。

5eabd806-32f0-11ed-ba43-dac502259ad0.png

圖 2:所提出的 3D-CoCo 模型的示意圖,其中包含特定域的 3D 編碼器,并對 BEV 特征執(zhí)行對比自適應(yīng)以實現(xiàn)實例級的特征對齊。

三、方法

我們提出 3D-CoCo 作為點云檢測中無監(jiān)督域適應(yīng)任務(wù)的可行解決方案。它對從異構(gòu)幾何中學(xué)習(xí)可遷移特征有兩個貢獻,分別是:位于新架構(gòu)設(shè)計中,如圖 2 所示;以及通過困難樣本挖掘來增強的對比實例對齊框架,如圖 3所示。

3.1 3D-CoCo 架構(gòu) 特定域的 3D 編碼器。

由于不同的物理環(huán)境和傳感器配置,3D 場景中的遷移學(xué)習(xí)可能會遭受劇烈的幾何變化,例如點云的密度變化和不同的遮擋率。盡管一些工作已經(jīng)探索了 3D 前置任務(wù)的模型預(yù)訓(xùn)練 ,但與 2D 場景相比,3D 視覺仍然缺乏可轉(zhuǎn)移的、經(jīng)過良好預(yù)訓(xùn)練的backbone。一個可能的原因是很難減少 3D 編碼器底層幾何表示的域偏移。

直觀地說,我們期望 3D 檢測網(wǎng)絡(luò)能夠逐步處理特定域的不可遷移特征,并學(xué)習(xí)領(lǐng)域不變的語義特征。如圖 2 所示,我們提出了一種具有特定域 3D 編碼器的新型模型架構(gòu),它學(xué)習(xí)不同的映射函數(shù)來解析 LiDAR 點,并將其轉(zhuǎn)換為不同領(lǐng)域的鳥瞰圖 (BEV) 空間。值得注意的是,協(xié)同訓(xùn)練架構(gòu)不僅有利于目標域的適應(yīng)性能,而且有助于保持源域的性能,因為在不同編碼器上學(xué)習(xí)可遷移特征可以促進雙向的知識共享。

與領(lǐng)域無關(guān)的 BEV 轉(zhuǎn)換模塊。

2D 轉(zhuǎn)換模塊與來自源域和目標域的數(shù)據(jù)樣本共同訓(xùn)練。它進一步將特定域的 3D 編碼器的輸出壓縮到 BEV 特征圖 M 中。BEV 特征應(yīng)該更具可遷移性,因為它們與 2D 視覺中基于網(wǎng)格的特征圖具有相似的結(jié)構(gòu),因此可以輕松集成到現(xiàn)有的遷移學(xué)習(xí)技術(shù)。基于 M,我們執(zhí)行對比對齊訓(xùn)練方案,以鼓勵學(xué)習(xí)域不變特征。

檢測頭。

檢測頭對 BEV 特征圖 M 中的 3D 對象進行分類和定位。給定來自源域的標記樣本,檢測頭被訓(xùn)練以最小化:

5ee0a54a-32f0-11ed-ba43-dac502259ad0.png


算法 1: 3D 對比協(xié)同訓(xùn)練 (3D-CoCo) 的學(xué)習(xí)過程

5f053bc6-32f0-11ed-ba43-dac502259ad0.png

5f355784-32f0-11ed-ba43-dac502259ad0.png

3.2 困難樣本增強對比對齊

由于點云的特征分布稀疏,使用全局分布對齊很難實現(xiàn)域間的有效匹配。因此,我們建議在實例級別利用細粒度對齊,這通過困難樣本挖掘得到增強,以避免不良的局部最小值。

5f612bde-32f0-11ed-ba43-dac502259ad0.png

5f92a61e-32f0-11ed-ba43-dac502259ad0.png

5fbd2cc2-32f0-11ed-ba43-dac502259ad0.png

5fdccbd6-32f0-11ed-ba43-dac502259ad0.png

圖 3:困難樣本增強對比對齊的idea。

(a-b) 一個簡單的對比對齊的使用,引入了目標域中偽標簽的樣本分布和ground truth之間的點密度和遮擋率不匹配。

(c) 困難樣本挖掘通過考慮特定的幾何不匹配來轉(zhuǎn)換點云。

(d) 原始的對比對齊更側(cè)重于對 3D 場景中 easy samples對齊,而不是易被忽略的、具有嚴重遮擋或密度變化的困難樣本。

(e) 3D-CoCo的對比對齊方案,通過轉(zhuǎn)換后的困難樣本有效地增強,以實現(xiàn)進一步的對齊

點云轉(zhuǎn)換為困難樣本。

對比實例對齊的直接使用,往往會導(dǎo)致由偽標簽獲得的樣本分布與目標域上的ground truths之間的不匹配。

首先,圖 3(a) 所示,偽標簽更集中在點云密集的模式中,而不是點云稀疏的模式中。

其次,圖 3(b) 所示,偽標簽不能完全覆蓋嚴重遮擋的模式。 因此,大多數(shù)由正偽標簽誘導(dǎo)的實例,可以被視為具有足夠點或完整幾何的“簡單樣本”。然而,我們認為被忽視的“困難樣本”更可能分布在如圖 3(d) 所示的邊緣區(qū)域,對于 3D 遷移學(xué)習(xí)同樣重要。 如圖 3(e) 所示,挖掘困難樣本可以進一步促進分布對齊,并防止模型過擬合不良的局部最小值。創(chuàng)建虛擬困難樣本的關(guān)鍵是考慮圖 3(a-b) 所示的幾何變化的先驗。我們在這里提出了兩種機制來創(chuàng)建虛擬的困難樣本。

圖 3(c) 所示,第一種變換方法,均勻地丟棄現(xiàn)有密集點云中的點,模擬激光束數(shù)量的變化。第二種方法通過破壞簡單樣本的完整幾何形狀,來模擬對象遮擋。具體來說,我們計算某個樣本的視點,隨機選擇一部分視點,丟棄這些角度上的點云。與以前應(yīng)用于 3D 檢測的常見增強策略(例如旋轉(zhuǎn)和翻轉(zhuǎn))相比 ,變換后的點云通過減少偽標簽引起的目標域的分布不匹配,來專注于有效的對比實例對齊,而不是旨在豐富源域的樣本多樣性。

整體訓(xùn)練流程。

我們提出了一個帶有 warm-up 過程的逐步訓(xùn)練程序,如算法1所示。具體來說,我們首先在有標記的源域上預(yù)訓(xùn)練一個源檢測器,并使用它在目標集上生成偽標簽。然后我們進行困難樣本挖掘(HSM)并增加目標集。接下來,我們按照方程式 (6) 來預(yù)熱 3D-CoCo 檢測模型。這允許在訓(xùn)練的早期階段,更穩(wěn)定的收斂。對于剩余的epochs,我們使用集成和投票機制,更新偽標簽。在逐步協(xié)同訓(xùn)練中, 逐漸適應(yīng)目標域,同時保持域內(nèi)的性能。

四、實驗

4.1 實驗設(shè)置 數(shù)據(jù)集。

我們在三個廣泛使用的、基于 LiDAR 的數(shù)據(jù)集上評估 3D-CoCo,包括 Waymo nuScenesKITTI 。每個數(shù)據(jù)集在外部環(huán)境(即交通狀況)和內(nèi)部傳感器配置(即光束數(shù)量)中,都有特定的屬性,因此它們之間存在巨大的域差距。具體來說:

1)Waymo 數(shù)據(jù)集,在美國全天使用 5 光束LiDAR 傳感器,在多種天氣條件下收集的。

2)nuScenes 數(shù)據(jù)集,由 32 光束激光雷達傳感器在美國和新加坡收集。

3)KITTI數(shù)據(jù)集,在陽光明媚的白天由德國的 64 光束 LiDAR 傳感器收集。 我們在數(shù)據(jù)集之間構(gòu)建了 4 個域適應(yīng)benchmarks,包括:(i)Waymo→nuScenes,(ii)nuScenes→Waymo,(iii)Waymo→KITTI,和(iv)nuScenes→KITTI。我們使用三個數(shù)據(jù)集的共同類別,即 Car/Vehicle。在這里,KITTI 僅用作目標域,因為它比其他兩個數(shù)據(jù)集小得多。

5ffab074-32f0-11ed-ba43-dac502259ad0.png

表 1:無監(jiān)督域適應(yīng)的平均精度和相應(yīng)的封閉差距的結(jié)果。請參閱文本以了解度量的定義。

NnuScenes KKITTI WWaymo

模型比較。

如表 1 所示,首先將 3D-CoCo 與僅使用源域數(shù)據(jù)訓(xùn)練的“Source Only”模型進行比較。我們使用包括兩種現(xiàn)有的跨域 3D 檢測方法: 1)SN 通過利用目標域的對象級統(tǒng)計數(shù)據(jù),來規(guī)范源域的對象大小。 2)ST3D [35] 是一種自訓(xùn)練pipeline,通過使用目標域數(shù)據(jù)的偽標簽進行再訓(xùn)練,實現(xiàn)了SOTA的域適應(yīng)結(jié)果。

在與我們相同的base檢測器上,我們重新實現(xiàn)了 SN 和 ST3D。最后,還將 3D-CoCo 與“Oracle”模型進行了比較,該模型使用有標記的目標域數(shù)據(jù)進行訓(xùn)練,以粗略地表示一個適應(yīng)模型在目標域上的最佳性能。

603f9a04-32f0-11ed-ba43-dac502259ad0.png

實施細節(jié)。

我們關(guān)注Yin等人,用兩個交替的 3D 編碼器構(gòu)建base檢測器,包括 VoxelNet PointPillars。對于 VoxelNet,我們將體素大小設(shè)置為 (0.1, 0.1, 0.15) m,對于 PointPillars,我們將體素大小設(shè)置為 (0.1, 0.1) m。我們使用學(xué)習(xí)率為 1.5 × 10?3 的 Adam 優(yōu)化器 。我們將 KITTI 數(shù)據(jù)集的最大訓(xùn)練 epoch 數(shù)設(shè)置為 30,Waymo 數(shù)據(jù)集和 nuScenes 數(shù)據(jù)集設(shè)置為 20,warm-up占總 epoch 的一半。

對于偽標簽生成,我們將 0.7 的high-pass閾值應(yīng)用于 IoU ,以獲得前景樣本,并將 0.2 的low-pass閾值應(yīng)用于背景樣本。為了減少數(shù)據(jù)集之間對象大小的域偏移,我們使用隨機對象縮放 (ROS) 策略 ,在使模型適應(yīng) KITTI 數(shù)據(jù)集時,縮放因子在 [0.75, 0.9] 范圍內(nèi)。這樣,與統(tǒng)計歸一化(SN)不同,我們的方法不需要目標域統(tǒng)計的準確先驗知識。

4.2 主要結(jié)果

如表 1 所示,3D-CoCo 在所有適應(yīng)benchmarks上,都大大優(yōu)于所有其他模型。尤其是在基于 VoxelNet 主干的 nuScenes→KITTI 和 Waymo→KITTI 上,3D-CoCo 將 AP3D 中的域差距縮小了大約 81% ~89%。此外,對于兩個大規(guī)模數(shù)據(jù)集(即 Waymo 和 nuScenes)之間的適應(yīng)任務(wù),3D-CoCo 也取得了相當(dāng)大的改進,在 VoxelNet 上將 AP3D 的域差距縮小了 37%,在 PointPillars 上縮小了 50%。

值得注意的是,盡管考慮了 3D 域偏移,SN 和 ST3D 在域適應(yīng)設(shè)置下取得了相對較小的改進,甚至對base模型產(chǎn)生了負面影響(僅源域)。相比之下,盡管從低質(zhì)量的偽標簽開始,3D-CoCo 仍然表現(xiàn)良好,因為有效的協(xié)同訓(xùn)練結(jié)合了有標記的源數(shù)據(jù)和增強的困難樣本。總體結(jié)果驗證了 3D-CoCo 在不同無監(jiān)督域適應(yīng)benchmarks上的可遷移性,以及其泛化到不同檢測網(wǎng)絡(luò)的能力。

4.3 消融研究 架構(gòu)設(shè)計。

所有消融研究都是在 nuScenes→KITTI 上進行的,使用 VoxelNet 作為網(wǎng)絡(luò)backbone。首先,表2 (I) 比較了在模型架構(gòu)中使用不同參數(shù)共享策略的結(jié)果。通過用域共享編碼器替換 3D-CoCo 的特定域 3D 編碼器,我們觀察到 AP3D 的域內(nèi)性能下降了 6.5%,跨域性能下降了 5.3%,這表明由于低級幾何偏移,難以在原始點云上學(xué)習(xí)可遷移的特征。

我們進一步評估了一個包含單獨 BEV 轉(zhuǎn)換模塊的baseline模型,發(fā)現(xiàn)域適應(yīng)性能在 AP3D 中下降了 5.3%。它展示了 BEV 特征的可轉(zhuǎn)移性。此外,我們的模型可以很好地與 ROS 配合使用,ROS 旨在減少目標域上的對象大小偏差,但不可避免地會降低源域上的定位精度。使用不同的 ROS 比例因子值,如表 2(II) 所示,我們的模型在域內(nèi)和跨域評估設(shè)置中始終實現(xiàn)性能提升。

605e5016-32f0-11ed-ba43-dac502259ad0.png

表 2:架構(gòu)設(shè)計的消融研究

圖1E和2E分別表示使用域共享3D編碼器和單獨的特定域編碼器。1U/2U 表示使用共享/分離的 BEV 轉(zhuǎn)換模塊。所有模型都在所提出的對比對齊框架中,使用了隨機對象縮放ROS 技術(shù)進行訓(xùn)練。在 (I) 中,ROS 比例因子在 [0.75, 0.9] 范圍內(nèi);在 (II) 中,它的范圍在 [0.75, 1.1]。我們報告了域內(nèi)和跨域的性能。

對比學(xué)習(xí)方案。

通過比較表3中的baseline模型 (a) 和 (b) ,我們觀察到平衡背景采樣策略有效地提高了適應(yīng)結(jié)果。通過進一步將模型 (c) 納入比較,這是最終提出的模型,我們驗證了使用相似性優(yōu)先標準的有效性。我們進一步將 3D-CoCo 與現(xiàn)有的prototype-level 對齊方法 進行比較,這些方法計算每個類別的所有樣本的歸一化特征作為對齊的類別級prototypes。

從表 3 中可以看出,由于原型的模糊性,baseline模型 (d) 在實例級對齊情況下比提出的模型 (c) 的性能差得多。此外,如表 4 所示,困難樣本挖掘 (i) 顯著提高了原始的對比實例對齊算法 (e) 的性能,mAP 為 6.8%。通過比較模型(e-g-i),我們可以看到均勻去除和遮擋模擬兩種變換方法,漸進地提高了模型性能。

60862ff0-32f0-11ed-ba43-dac502259ad0.png


表 3:對比對齊方案的消融研究。

Bkgd:平衡背景采樣策略;Sim:相似性優(yōu)先準則;Proto:prototype-level對齊,而不是instance-level對齊。


60862ff0-32f0-11ed-ba43-dac502259ad0.png


表 4:困難樣本挖掘的消融研究。

Rand
:隨機地去除點;Unif:均勻地去除點;Pers:去除某些視角的點以模擬遮擋。

與自訓(xùn)練pipeline的比較。

基于相同的初始化預(yù)訓(xùn)練源模型,我們將協(xié)同訓(xùn)練過程(在圖 4 中表示為 CT)與自訓(xùn)練(表示為 ST)進行比較。在圖 4(a1) 中,在不更新偽標簽的情況下,兩個模型在早期訓(xùn)練階段都有波動,但 3D-CoCo 收斂更快、更穩(wěn)定,比自訓(xùn)練模型具有更高的性能。圖 4(a2)顯示了true positive和false positive預(yù)測的比率,表示為 TPs/FPs。這表明我們的協(xié)同訓(xùn)練方法比自訓(xùn)練baseline產(chǎn)生了更低的檢測噪聲。

此外,通過在訓(xùn)練過程中更新偽標簽,如圖 4(b1-b2) 所示,所提出的協(xié)同訓(xùn)練框架在檢測精度上始終優(yōu)于自訓(xùn)練,并且隨著偽標簽的逐步改善,產(chǎn)生的檢測噪聲極低。

最后,我們對通過不同置信度分數(shù)過濾后的偽標簽進行敏感性分析,其中較低的置信度分數(shù)會帶來更多的噪聲標簽,而較高的置信度分數(shù)往往會錯過positive標簽。如圖 4(c1) 所示,由于自訓(xùn)練完全依賴于偽標簽,因此它對過濾分數(shù)更敏感,而我們的協(xié)同訓(xùn)練框架對偽標簽的質(zhì)量更加魯棒。

60be4af2-32f0-11ed-ba43-dac502259ad0.png

圖 4:自訓(xùn)練 (ST) 和提出的協(xié)同訓(xùn)練 (CT) 方法的比較。(a1-a2) 不更新偽標簽的訓(xùn)練。(b1-b2) 使用逐步更新的偽標簽進行訓(xùn)練。(c1-c2) 使用由不同置信度分數(shù)過濾的偽標簽進行訓(xùn)練。AP3D 表示檢測精度。TPs/FPs 的比率表示檢測噪聲。HSM:困難樣本挖掘。

五、相關(guān)工作 3D點云檢測。

基于 LiDAR 的 3D 檢測器旨在從點云中定位并分類 3D 對象,點云可大致分為兩類:基于點的和基于網(wǎng)格的。基于點的方法將原始點作為輸入,并應(yīng)用 PointNet 來提取逐點特征并為每個點生成proposals。基于網(wǎng)格的方法 提出將點云轉(zhuǎn)換為規(guī)則網(wǎng)格作為模型輸入,其中 Voxelization 是將點云映射為規(guī)則3D 體素的常用技術(shù)。其他方法將點云量化為某些類型的 2D 視圖,例如鳥瞰圖 和范圍視圖 。

與基于點的方法相比,它們效率更高,加速了大規(guī)模數(shù)據(jù)集的訓(xùn)練,如 nuScenes 和 Waymo 。在這項工作中,為了計算效率,我們采用基于anchor-free檢測頭的 VoxelNet 和 PointPillars作為base檢測器。

2D 無監(jiān)督域適應(yīng)。

在 2D 視覺任務(wù)中提出了多種解決方案,包括分類 、檢測 和分割 ,大致可分為兩類:分布對齊 和自訓(xùn)練 。對于第一組,對抗學(xué)習(xí)被用來在特征空間中執(zhí)行對齊。此外,對比學(xué)習(xí)也被用于細粒度的特征對齊[10,31,24,40]。此外,一些作品借用圖像轉(zhuǎn)換技術(shù)在像素級別執(zhí)行對齊 。至于第二組,自訓(xùn)練方法通常分配偽標簽來指導(dǎo)目標域上的再訓(xùn)練過程。

與這些方法相比,3D-CoCo 源于 3D 幾何位移的獨特屬性。通過使用特定域的編碼器、與領(lǐng)域無關(guān)的 BEV 轉(zhuǎn)換模塊和轉(zhuǎn)換后的點集,它有效地將原始的對比適應(yīng)方法擴展到 3D 對象檢測。

3D 無監(jiān)督域適應(yīng)。

最近的一些工作有效地減少了點云分類 和語義分割 中的域偏移。在本文中,我們專注于 3D 目標檢測的域適應(yīng)任務(wù),該任務(wù)只有少數(shù)研究工作進行了討論。統(tǒng)計歸一化方法 通過使用目標域的已知統(tǒng)計數(shù)據(jù)來歸一化源域的對象大小,進而縮小 3D 域偏移,這在無監(jiān)督自適應(yīng)任務(wù)中通常是不可用的。

為了解決這個問題,SF-UDA 使用時間相關(guān)性來估計目標域中的尺度,并通過轉(zhuǎn)換偽標簽的尺度來重新訓(xùn)練目標域數(shù)據(jù)上的檢測模型。目前的工作 進一步探索了目標域數(shù)據(jù)上的偽標簽生成機制,作為自訓(xùn)練的監(jiān)督信號。由于自訓(xùn)練方法的適應(yīng)過程可能會被有噪聲的偽標簽誤導(dǎo),這些方法利用復(fù)雜的策略來提高偽標簽的質(zhì)量。與自訓(xùn)練相比,3D-CoCo 利用協(xié)同訓(xùn)練框架,在該框架中,有標記的源數(shù)據(jù)可以在適應(yīng)過程中為檢測模型提供更穩(wěn)定的監(jiān)督。

六、結(jié)論

在本文中,我們提出了用于點云檢測的無監(jiān)督域適應(yīng)的 3D-CoCo。3D-CoCo 包含一個新穎的模型架構(gòu)和一個新的對比學(xué)習(xí)框架。基于 BEV 特征在 3D 場景中比低級幾何特征更具可轉(zhuǎn)移性的特點,我們創(chuàng)新性地提出集成領(lǐng)域特定的 3D 編碼器與領(lǐng)域無關(guān)的 BEV 轉(zhuǎn)換模塊。然后,我們對 BEV 特征進行了對比實例對齊,通過困難樣本挖掘來增強。三個自動駕駛數(shù)據(jù)集的實驗,顯示了 3D-CoCo 的有效性。作為 3D 點云檢測關(guān)于遷移學(xué)習(xí)問題的試點工作,我們遵循無監(jiān)督域適應(yīng)的典型訓(xùn)練設(shè)置,在訓(xùn)練時比現(xiàn)有的自訓(xùn)練方法占用更多的內(nèi)存。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3595

    瀏覽量

    134150
  • 檢測器
    +關(guān)注

    關(guān)注

    1

    文章

    860

    瀏覽量

    47651
  • 轉(zhuǎn)換模塊
    +關(guān)注

    關(guān)注

    0

    文章

    20

    瀏覽量

    7117

原文標題:3D-CoCo: 3D 對比協(xié)同訓(xùn)練學(xué)習(xí)點云檢測的可遷移特征(NeurIPS2021)

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    標貝科技:自動駕駛中的數(shù)據(jù)標注類別分享

    自動駕駛訓(xùn)練模型的成熟和穩(wěn)定離不開感知技術(shù)的成熟和穩(wěn)定,訓(xùn)練自動駕駛感知模型需要使用大量準確真實的數(shù)據(jù)。據(jù)英特爾計算,L3+級自動駕駛每輛汽
    的頭像 發(fā)表于 11-22 15:07 ?463次閱讀
    標貝科技:<b class='flag-5'>自動駕駛</b>中的<b class='flag-5'>數(shù)據(jù)</b>標注類別分享

    標貝科技:自動駕駛中的數(shù)據(jù)標注類別分享

    自動駕駛訓(xùn)練模型的成熟和穩(wěn)定離不開感知技術(shù)的成熟和穩(wěn)定,訓(xùn)練自動駕駛感知模型需要使用大量準確真實的數(shù)據(jù)。據(jù)英特爾計算,L3+級自動駕駛每輛汽
    的頭像 發(fā)表于 11-22 14:58 ?102次閱讀
    標貝科技:<b class='flag-5'>自動駕駛</b>中的<b class='flag-5'>數(shù)據(jù)</b>標注類別分享

    Apollo自動駕駛開放平臺10.0版即將全球發(fā)布

    ,更為自動駕駛行業(yè)的未來發(fā)展注入了新的活力。 Apollo ADFM大模型在設(shè)計充分考慮了技術(shù)的安全化性,通過先進的算法和模型訓(xùn)練,
    的頭像 發(fā)表于 11-07 11:24 ?709次閱讀

    MXeval操作與評估結(jié)果展示#MXeval #主觀評估 #ADAS #自動駕駛

    自動駕駛
    北匯信息POLELINK
    發(fā)布于 :2024年10月16日 17:08:16

    自動駕駛HiL測試方案 ——場景仿真3D演示#ADAS #自動駕駛 #VTHiL

    自動駕駛
    北匯信息POLELINK
    發(fā)布于 :2024年10月16日 10:55:35

    FPGA在自動駕駛領(lǐng)域有哪些優(yōu)勢?

    。 硬件級安全: 自動駕駛系統(tǒng)對安全有極高的要求。FPGA的硬件級安全使其能夠在硬件層面實現(xiàn)數(shù)據(jù)加密、防篡改和防攻擊等安全功能,確保自動駕駛
    發(fā)表于 07-29 17:11

    FPGA在自動駕駛領(lǐng)域有哪些應(yīng)用?

    FPGA(Field-Programmable Gate Array,現(xiàn)場可編程門陣列)在自動駕駛領(lǐng)域具有廣泛的應(yīng)用,其高性能、可配置、低功耗和低延遲等特點為自動駕駛的實現(xiàn)提供了強有
    發(fā)表于 07-29 17:09

    未來已來,多傳感器融合感知是自動駕駛破局的關(guān)鍵

    模態(tài)精準感知信息,使自動駕駛系統(tǒng)可以實時精準地感知道路上的各種狀況。 昱感微融合感知產(chǎn)品方案創(chuàng)新性地 將可見光攝像頭、紅外攝像頭以及4D毫米波雷達的探測數(shù)據(jù)在前端(數(shù)據(jù)獲取時)交互,
    發(fā)表于 04-11 10:26

    自動駕駛數(shù)據(jù)的生成模型之WoVoGen框架原理

    生成多攝像頭的街景視頻對于增加自動駕駛數(shù)據(jù)至關(guān)重要,解決了對廣泛而多樣的數(shù)據(jù)的迫切需求。由于多樣
    發(fā)表于 01-25 15:26 ?540次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>的生成模型之WoVoGen框架原理

    自動駕駛領(lǐng)域的數(shù)據(jù)匯總

    發(fā)自動駕駛論文哪少的了數(shù)據(jù),今天筆者將為大家推薦一篇最新的綜述,總結(jié)了200多個自動駕駛領(lǐng)域的數(shù)據(jù)
    的頭像 發(fā)表于 01-19 10:48 ?947次閱讀
    <b class='flag-5'>自動駕駛</b>領(lǐng)域的<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>匯總

    激光基于車路協(xié)同的自動駕駛方案亮相

    如何同時兼顧安全與成本?是自動駕駛的一大難題。萬獨創(chuàng)基于C-V2X的車路協(xié)同自動駕駛解決方案給出了自己的答案。通過將道路的實時交通信息應(yīng)用進來,可以降低單車智能對于過多傳感器的依賴和過多數(shù)據(jù)
    的頭像 發(fā)表于 01-15 11:37 ?1014次閱讀

    如何搞定自動駕駛3D目標檢測!

    可用于自動駕駛場景下基于圖像的3D目標檢測的數(shù)據(jù)總結(jié)。其中一些數(shù)據(jù)包括多個任務(wù),這里只報告了
    發(fā)表于 01-05 10:43 ?548次閱讀
    如何搞定<b class='flag-5'>自動駕駛</b><b class='flag-5'>3D</b>目標檢測!

    語音數(shù)據(jù)自動駕駛中的應(yīng)用與挑戰(zhàn)

    隨著人工智能技術(shù)的快速發(fā)展,自動駕駛汽車已經(jīng)成為交通領(lǐng)域的研究熱點。語音數(shù)據(jù)自動駕駛中發(fā)揮著重要的作用,為駕駛員和乘客提供了更加便捷和安
    的頭像 發(fā)表于 12-25 09:48 ?524次閱讀

    LabVIEW開發(fā)自動駕駛的雙目測距系統(tǒng)

    LabVIEW開發(fā)自動駕駛的雙目測距系統(tǒng) 隨著車輛駕駛技術(shù)的不斷發(fā)展,自動駕駛技術(shù)正日益成為現(xiàn)實。從L2級別的輔助駕駛技術(shù)到L3級別的受條件
    發(fā)表于 12-19 18:02

    自動駕駛“十問十答”

    ? 很多人下意識的認為自動駕駛是為了提升大家日常出行的舒適度和便捷,實際自動駕駛的推動最開始的主要原因之一是為了【安全】,據(jù)國外研究表明,其中95%事故與人的因素有關(guān),近70%由
    的頭像 發(fā)表于 11-29 07:40 ?968次閱讀
    <b class='flag-5'>自動駕駛</b>“十問十答”