精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

激光雷達(dá)融合方法與挑戰(zhàn)和潛在影響因素研究

牽手一起夢 ? 來源:智車科技IV ? 作者:佚名 ? 2020-04-15 16:16 ? 次閱讀

本文是,加拿大滑鐵盧大學(xué)CogDrive實(shí)驗(yàn)室,對當(dāng)前最新的基于深度學(xué)習(xí)的相機(jī)-激光雷達(dá)融合(camera-LiDAR Fusion)方法的綜述。

本篇綜述評價了基于相機(jī)-激光雷達(dá)融合的深度補(bǔ)全,對象檢測,語義分割和跟蹤方向的最新論文,并根據(jù)其融合層級進(jìn)行組織敘述并對比。最后討論了當(dāng)前學(xué)術(shù)研究與實(shí)際應(yīng)用之間的差距和被忽視的問題?;谶@些觀察,我們提出了自己的見解及可能的研究方向。

激光雷達(dá)融合方法與挑戰(zhàn)和潛在影響因素研究

01.背景

基于單目視覺的感知系統(tǒng)以低成本實(shí)現(xiàn)了令人滿意的性能,但卻無法提供可靠的3D幾何信息。雙目相機(jī)可以提供3D幾何信息,但計(jì)算成本高,且無法在高遮擋和無紋理的環(huán)境中可靠的工作。此外,基于視覺的感知系統(tǒng)在光照條件復(fù)雜的情況下魯棒性較低,這限制了其全天候能力。而激光雷達(dá)不受光照條件影響,且能提供高精度的3D幾何信息。但其分辨率和刷新率低,且成本高昂。

相機(jī)-激光雷達(dá)融合感知,就是為了提高性能與可靠性并降低成本。但這并非易事,首先,相機(jī)通過將真實(shí)世界投影到相機(jī)平面來記錄信息,而點(diǎn)云則將幾何信息以原始坐標(biāo)的形式存儲。此外,就數(shù)據(jù)結(jié)構(gòu)和類型而言,點(diǎn)云是不規(guī)則,無序和連續(xù)的,而圖像是規(guī)則,有序和離散的。這導(dǎo)致了圖像和點(diǎn)云處理算法方面的巨大差異。在圖1中,我們比較了點(diǎn)云和圖像的特性。

激光雷達(dá)融合方法與挑戰(zhàn)和潛在影響因素研究

圖1.點(diǎn)與數(shù)據(jù)和圖像數(shù)據(jù)的比較

激光雷達(dá)融合方法與挑戰(zhàn)和潛在影響因素研究

圖2. 論文總體結(jié)構(gòu)

02.趨勢,挑戰(zhàn)和未來研究方向

無人駕駛汽車中的感知模塊負(fù)責(zé)獲取和理解其周圍的場景,其輸出直接影響著下游模塊(例如規(guī)劃,決策和定位)。因此,感知的性能和可靠性是整個無人駕駛系統(tǒng)的關(guān)鍵。通過攝像頭-激光雷達(dá)融合感知來加強(qiáng)其性能和可靠性,改善無人駕駛車輛在復(fù)雜的場景下的感知(例如城市道路,極端天氣情況等)。因此在本節(jié)中,我們總結(jié)總體趨勢,并討論這方面的挑戰(zhàn)和潛在影響因素。如表IV所示,我們將討論如何改善融合方法的性能和魯棒性,以及與工程實(shí)踐相關(guān)的其他重要課題。如下是我們總結(jié)的圖像和點(diǎn)云融合的趨勢:

2D到3D:隨著3D特征提取方法的發(fā)展,在3D空間中定位,跟蹤和分割對象已成為研究的熱點(diǎn)。

單任務(wù)到多任務(wù):一些近期的研究結(jié)合了多個互補(bǔ)任務(wù),例如對象檢測,語義分割和深度完成,以實(shí)現(xiàn)更好的整體性能并降低計(jì)算成本。

信號級到多級融合:早期的研究經(jīng)常利用信號級融合,將3D幾何圖形轉(zhuǎn)換到圖像平面以利用現(xiàn)成的圖像處理模型,而最近的模型則嘗試在多級融合圖像和點(diǎn)云(例如早期融合,晚期融合)并利用時間上下文。

激光雷達(dá)融合方法與挑戰(zhàn)和潛在影響因素研究

表I. 當(dāng)前的挑戰(zhàn)

A.與性能相關(guān)的開放研究問題

1)融合數(shù)據(jù)的(Feature/Signal Representation)特征/信號表示形式:

融合數(shù)據(jù)的Feature/Signal Representation是設(shè)計(jì)任何數(shù)據(jù)融合算法的基礎(chǔ)。當(dāng)前的特征/信號表示形式包括:

a) 在RGB圖像上的附加深度信息通道(RGB-D)。此方法由于可以通過現(xiàn)成的圖像處理模型進(jìn)行處理,因此早期的信號級融合常使用這種表達(dá)形式。但是,其結(jié)果也限制于2D圖像平面,這使其不適用于自動駕駛。

b) 在點(diǎn)云上的附加RGB通道。此方法可以通過將點(diǎn)投影到像平面進(jìn)行像素點(diǎn)關(guān)聯(lián)來實(shí)現(xiàn)。但是,高分辨率圖像和低分辨率點(diǎn)云之間的分辨率不匹配會影響此方式的效率。

c) 將圖像和點(diǎn)云特征/信號均轉(zhuǎn)換為(intermediate data representation)其他的數(shù)據(jù)表示形式。當(dāng)前的intermediate data representation包括:(voxelized point cloud)體素化點(diǎn)云[75],(lattice)晶格[88]。未來的研究可以探索其他新穎的中間數(shù)據(jù)結(jié)構(gòu),例如(graph)圖,(tree)樹等,從而提高性能。

2)(Encoding Geometric Constraint)加入幾何約束:

與其他三維數(shù)據(jù)源(如來自立體相機(jī)或結(jié)構(gòu)光的RGBD數(shù)據(jù))相比,LiDAR有更長的有效探測范圍和更高的精度,可提供詳細(xì)而準(zhǔn)確的3D幾何形狀。幾何約束已成為圖像和點(diǎn)云融合流程中的常識,其提供了額外的信息來引導(dǎo)深度學(xué)習(xí)網(wǎng)絡(luò)實(shí)現(xiàn)更好的性能。將點(diǎn)云以RGBD圖像的形式投影到圖像平面似乎是最自然的解決方法,但是點(diǎn)云的稀疏性會產(chǎn)生空洞。深度補(bǔ)全和點(diǎn)云上采樣可以在某種程度上解決該問題。除此之外利用單眼圖像預(yù)測深度信息以及在連續(xù)幀之間引入自我監(jiān)督學(xué)習(xí),也有望緩解這個問題。但是,如何將這種幾何信息加入到融合流程中仍是當(dāng)前研究實(shí)踐中尚需解決的問題。

3)(Encoding Temporal Context)加入時間上下文:

還有一些工程問題阻礙了無人駕駛汽車的實(shí)際部署,例如LiDAR與攝像頭之間的時間不同步,LiDAR的低刷新率導(dǎo)致車速高時的點(diǎn)云變形,LiDAR傳感器測距誤差。這些問題將導(dǎo)致圖像與點(diǎn)云,點(diǎn)云與實(shí)際環(huán)境之間的不匹配。根據(jù)深度補(bǔ)全方面的經(jīng)驗(yàn),可以采用連續(xù)幀之間的時間上下文來改善姿態(tài)估計(jì),從而改善特征融合的性能并使得下游的的header網(wǎng)絡(luò)受益。在自動駕駛中,準(zhǔn)確估算周圍車輛的運(yùn)動狀態(tài)至關(guān)重要,時間上下文有助于獲得更平滑,更穩(wěn)定的結(jié)果。此外,時間上下文可能有益于在線自校準(zhǔn)。因此,應(yīng)對加入時間上下文進(jìn)行更多的研究。 4)深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì):

要回答這個問題,我們首先需要回答點(diǎn)云的最佳深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)是什么。對于圖像處理,CNN是最佳選擇,并已被廣泛接受。但點(diǎn)云處理仍然是一個開放的研究問題。同時沒有點(diǎn)云深度學(xué)習(xí)網(wǎng)絡(luò)的設(shè)計(jì)原則,被廣泛的接受或被證明是最有效的。當(dāng)前大多數(shù)傳感器融合網(wǎng)絡(luò)都是基于對應(yīng)的圖像的網(wǎng)絡(luò)結(jié)構(gòu),或者是基于經(jīng)驗(yàn)或?qū)嶒?yàn)來進(jìn)行設(shè)計(jì)的。因此,采用神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索(NAS)[95]的方法可能會帶來進(jìn)一步的性能提升。

5)無監(jiān)督或弱監(jiān)督的學(xué)習(xí)框架:

人工標(biāo)注圖像和點(diǎn)云數(shù)據(jù)既昂貴又耗時,這限制了當(dāng)前多傳感器數(shù)據(jù)集的大小。采用無監(jiān)督和弱監(jiān)督的學(xué)習(xí)框架,可以使網(wǎng)絡(luò)在更大的未標(biāo)記/粗標(biāo)簽的數(shù)據(jù)集上進(jìn)行訓(xùn)練,從而提升性能。 B.與可靠性相關(guān)的開放研究問題

1)與傳感器無關(guān)的融合框架:

從工程角度來看,自動駕駛汽車的冗余設(shè)計(jì)對其安全至關(guān)重要。盡管將LiDAR和攝像頭融合在一起可以改善感知性能,但是它也會帶來信號耦合問題。如果在工作時有一條信號路徑失效,那么整個流程都可能會發(fā)生故障,并影響下游模塊。這對于在安全關(guān)鍵環(huán)境中運(yùn)行的自動駕駛汽車是不可接受的。這一問題可以通過加入能接受不同傳感器輸入的多個融合模塊,或異步多模數(shù)據(jù)、多路徑的融合模塊來解決。但最佳解決方案仍有待進(jìn)一步的研究。 2)全天候/光線下的工作能力:

自動駕駛汽車需要在所有天氣和光照條件下工作。然而,當(dāng)前的數(shù)據(jù)集和方法主要集中在具有良好照明和天氣條件的場景上。這會導(dǎo)致在現(xiàn)實(shí)世界中表現(xiàn)不佳,因?yàn)槠涔庹蘸吞鞖鈼l件更加復(fù)雜。

3)(Adversarial Attacks and Corner Cases)對抗攻擊和極端案例:

針對基于圖像的感知系統(tǒng)的對抗已被證明是有效的,這對自動駕駛汽車構(gòu)成了嚴(yán)重的危險。在這種情況下,可以進(jìn)一步探索如何利用LiADR的準(zhǔn)確3D幾何信息和圖像來共同識別這些攻擊。

由于自動駕駛汽車需要在不可預(yù)測的開放環(huán)境中運(yùn)行,因此也必須考慮感知中的(edge cases)極端案例。在設(shè)計(jì)感知系統(tǒng)時,應(yīng)該考慮到不常見的特殊障礙物,例如奇怪的行為和極端的天氣。例如,打印在大型車輛上的人和物體(車體廣告)以及穿著怪異服裝的人。利用多模數(shù)據(jù)來識別這些極端情況,可能會比用單模傳感器更為有效、可靠和簡單。在這個方向上的進(jìn)一步研究可以幫助提高自動駕駛技術(shù)的安全性和加快其商用。

C.與工程有關(guān)的開放研究問題

1)傳感器在線自校準(zhǔn):

相機(jī)和LiDAR融合的前提和假設(shè)是相機(jī)和LiDAR之間的精確校準(zhǔn),其中包括相機(jī)內(nèi)部參數(shù)和相機(jī)與LiDAR之間的外部參數(shù)。但在實(shí)際上做到校準(zhǔn)參數(shù)一直準(zhǔn)確很難。即使在對相機(jī)和LiDAR進(jìn)行了完美的校準(zhǔn)之后,在車輛機(jī)械振動,熱量等因素的影響下,其校準(zhǔn)參數(shù)也會隨時間變化而變得不準(zhǔn)。由于大多數(shù)融合方法對校準(zhǔn)誤差極為敏感,因此這會嚴(yán)重削弱其性能和可靠性。此外校準(zhǔn)過程大多需要從頭進(jìn)行,所以不斷的人工更新校準(zhǔn)參數(shù)既麻煩又不切實(shí)際。然而此問題受到的關(guān)注較少,因?yàn)檫@個問題在已發(fā)布的數(shù)據(jù)集中不太明顯。盡管如此,仍然有必要研究相機(jī)和LiDAR在線自校準(zhǔn)的方法。最近的一些研究采用了運(yùn)動引導(dǎo)[96]和無目標(biāo)[97]自校準(zhǔn)。在這個重要方向上進(jìn)行更多的研究是有必要的。

2)傳感器時間同步:

明確來自多個傳感器數(shù)據(jù)幀的確切時間對于實(shí)時傳感器融合至關(guān)重要,這將直接影響融合結(jié)果。但在實(shí)踐中,我們很難保證完美的時間同步。首先,LiDAR和相機(jī)具有不同的刷新率,并且每個傳感器都有自己的時間源。此外,感知系統(tǒng)的許多部分(數(shù)據(jù)傳輸,傳感器曝光時間等)都可能發(fā)生不可控制的時間延遲。幸運(yùn)的是,有幾種緩解該問題的方法。首先可以增加傳感器刷新率以減少時間偏差。也可以使用GPS PPS時間源與主機(jī)保持同步,并且由主機(jī)將時間戳同步請求發(fā)送到每個傳感器,以使每個傳感器都在同一時間軸上。此外如果傳感器可以由外部信號觸發(fā),則帶有晶振的特定電路硬件可以記錄精確的時間戳,該時間戳可用于在幾乎同時觸發(fā)每個傳感器。該方法被認(rèn)為是目前最有效的。

03.深度補(bǔ)全

激光點(diǎn)云的稀疏性極大地制約了3D感知算法并使之復(fù)雜化。深度補(bǔ)全旨在通過將稀疏的,不規(guī)則的深度數(shù)據(jù),上采樣為密集的規(guī)則的數(shù)據(jù)來解決此問題?;谙鄼C(jī)-激光雷達(dá)融合的方法通常利用高分辨率圖像來引導(dǎo)深度上采樣,并采用(encoder-decoder)編碼器-解碼器架構(gòu),這也意味著pixel-wise fusion。圖2是深度補(bǔ)全模型的發(fā)展時間軸和其對應(yīng)的數(shù)據(jù)融合層級。表I列出了KITTI深度補(bǔ)全基準(zhǔn)測試中各模型的結(jié)果比較和對應(yīng)的數(shù)據(jù)融合的層級,并在圖3中繪制成散點(diǎn)圖。

激光雷達(dá)融合方法與挑戰(zhàn)和潛在影響因素研究

圖3. 深度補(bǔ)全模型的發(fā)展時間軸和其對應(yīng)的數(shù)據(jù)融合層級

激光雷達(dá)融合方法與挑戰(zhàn)和潛在影響因素研究

表II. KITTI深度補(bǔ)全基準(zhǔn)測試中各模型的結(jié)果比較和對應(yīng)的數(shù)據(jù)融合的層級

當(dāng)前大多數(shù)研究使用單目圖像來引導(dǎo)深度補(bǔ)全。這些方法認(rèn)為圖像的顏色,材質(zhì)等信息包含著幾何信息,故可以將其作為深度上采樣的參考。與單目圖像相比,由立體相機(jī)的視差計(jì)算得到的幾何信息更豐富,更精確。在深度補(bǔ)全任務(wù)上,立體相機(jī)和激光雷達(dá)在理論上更具互補(bǔ)性,應(yīng)該能從中計(jì)算出更密集,更準(zhǔn)確的深度信息。但在實(shí)際應(yīng)用中,立體攝像機(jī)的有效距離范圍有限(與激光雷達(dá)的有效距離不匹配),且其在高遮擋,無紋理的環(huán)境中不可靠(如部分城市道路),這使其目前不太適用于自動駕駛。

激光雷達(dá)融合方法與挑戰(zhàn)和潛在影響因素研究

圖4. KITTI深度補(bǔ)全基準(zhǔn)測試中各模型的結(jié)果散點(diǎn)圖

各模型介紹與對比的詳細(xì)內(nèi)容見原文。

04.3D目標(biāo)識別

3D目標(biāo)檢測旨在3D空間中定位,分類并估計(jì)具備方向性的(bbox)目標(biāo)邊界框。當(dāng)前有兩種主要的目標(biāo)檢測流程:(Sequential/ two-stage)多階段和(single-shot/one-stage)單階段?;诙嚯A段的模型大體由(proposal stage)候選框階段和3D邊界框(3D bbox regression)回歸階段組成。在候選框階段,檢測并提出所有可能包含感興趣對象的區(qū)域。在(bbox)目標(biāo)邊界框回歸階段,根據(jù)候選的區(qū)域的特征對區(qū)域進(jìn)行進(jìn)一步甄別。但是,該模型的性能受到每個階段的限制。在另一方面,single-shot模型只包含一個階段,其通常以并行的方式處理2D和3D信息。3D對象檢測模型的發(fā)展時間軸和其對應(yīng)的數(shù)據(jù)融合層級如圖4所示。表II和圖6展示了在KITTI 3D目標(biāo)檢測基準(zhǔn)測試中各模型的性能對比和對應(yīng)的數(shù)據(jù)融合的層級。

激光雷達(dá)融合方法與挑戰(zhàn)和潛在影響因素研究

圖5.3D對象檢測模型的發(fā)展時間軸和其對應(yīng)的數(shù)據(jù)融合層級

A. 基于(2D Proposal)2D候選區(qū)域的多階段模型:

這部分模型首先基于2D圖像語義生成2D候選區(qū)域,這使其能利用現(xiàn)成的圖像處理模型。更具體的來說,這些方法利用2D圖像目標(biāo)檢測器生成2D候選區(qū)域,并將其投影回3D點(diǎn)云空間中,形成3D搜索空間,并在這些3D搜索空間內(nèi)進(jìn)一步完成3D bbox的回歸檢測。這其中有兩種將2D候選區(qū)域轉(zhuǎn)換到3D點(diǎn)云空間的投影方法。第一個是將圖像平面中的邊界框投影到3D點(diǎn)云,從而形成一個錐形的3D搜索空間。而第二種方法將點(diǎn)云投影到圖像平面,將點(diǎn)云逐點(diǎn)與對應(yīng)的2D語義信息聯(lián)系起來。但在點(diǎn)云中,遠(yuǎn)處的或被遮擋的物體通常只由少量的稀疏點(diǎn)組成,這增加了第二階段中3D bbox回歸的難度。

激光雷達(dá)融合方法與挑戰(zhàn)和潛在影響因素研究

表III. KITTI 3D目標(biāo)檢測基準(zhǔn)測試中各模型的性能對比和對應(yīng)的數(shù)據(jù)融合的層級。

B. 基于(3D Proposal)3D候選區(qū)域的多階段模型:

基于3D候選區(qū)域的模型直接從2D或3D數(shù)據(jù)中生成3D候選區(qū)域。其通過消除2D到3D轉(zhuǎn)換,極大地縮小了3D搜索空間。用于3D候選區(qū)域生成的常見方法包括(multi-view)多視角方法和(point cloud voxelization)點(diǎn)云體素化方法。基于多視角的方法利用點(diǎn)云的鳥瞰(BEV representation)圖來生成3D候選區(qū)域。鳥瞰圖避免了透視遮擋,并保留了對象的方向信息和x,y坐標(biāo)的原始信息。這些方向和x,y坐標(biāo)信息對于3D對象檢測至關(guān)重要,且鳥瞰圖和其他視角之間的坐標(biāo)轉(zhuǎn)換較為直接。而基于點(diǎn)云體素化的模型,將連續(xù)的不規(guī)則數(shù)據(jù)結(jié)構(gòu)轉(zhuǎn)換為離散的規(guī)則數(shù)據(jù)結(jié)構(gòu)。這讓應(yīng)用(standard 3D discrete convolution)標(biāo)準(zhǔn)3D離散卷積,并利用現(xiàn)有網(wǎng)絡(luò)模型來處理點(diǎn)云變得可能。其缺點(diǎn)是失去了部分空間分辨率,細(xì)粒度的3D結(jié)構(gòu)信息以及引入了(boundary artifacts)邊界痕跡。

激光雷達(dá)融合方法與挑戰(zhàn)和潛在影響因素研究

圖6. KITTI 3D目標(biāo)檢測基準(zhǔn)測試中各模型的性能散點(diǎn)圖。 C. 單階段模型單階段模型將候選區(qū)域生成和bbox回歸階段融合為一個步驟,這些模型通常在計(jì)算效率上更高。這使它們更適合于移動計(jì)算平臺上的實(shí)時應(yīng)用。

各模型介紹與對比的詳細(xì)內(nèi)容請見原文。

05.2D/3D語義分割

本節(jié)回顧了用于2D語義分割,3D語義分割和實(shí)例分割的現(xiàn)有Camera-LiDAR融合方法。2D / 3D語義分割旨在預(yù)測每個像素和每個點(diǎn)的類型標(biāo)簽,而實(shí)例分割還關(guān)心單個實(shí)例。圖6給出了3D語義分割網(wǎng)絡(luò)的時間順序概述和對應(yīng)的數(shù)據(jù)融合的層級。詳細(xì)內(nèi)容請見原文。

激光雷達(dá)融合方法與挑戰(zhàn)和潛在影響因素研究

圖7. 3D語義分割網(wǎng)絡(luò)的發(fā)展時間軸和其對應(yīng)的數(shù)據(jù)融合層級

06.跟蹤

多目標(biāo)跟蹤(MOT)對于自動駕駛汽車的決策是不可或缺的。為此,本節(jié)回顧了基于相機(jī)-激光雷達(dá)融合的對象跟蹤方法,并在表III中的KITTI多對象跟蹤基準(zhǔn)(汽車)[47]上比較了它們的性能。

A. Detection-Based Tracking (DBT)/Tracking-by-Detection

檢測跟蹤框架包括兩個階段。在第一階段為目標(biāo)檢測。第二階段在時間軸上將這些目標(biāo)關(guān)聯(lián)起來,并計(jì)算軌跡,這些軌跡可被表示成線性程序。

表IV. KITTI 跟蹤基準(zhǔn)測試中各模型的性能對比和對應(yīng)的方法。

責(zé)任編輯:gt

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 激光
    +關(guān)注

    關(guān)注

    19

    文章

    3120

    瀏覽量

    64363
  • 雷達(dá)
    +關(guān)注

    關(guān)注

    50

    文章

    2897

    瀏覽量

    117310
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5492

    瀏覽量

    120975
收藏 人收藏

    評論

    相關(guān)推薦

    空間激光雷達(dá)最小接收光功率的計(jì)算

    直接計(jì)算非相干檢測方式下所需最小光功率的方法。仿真結(jié)果表明,由該方法計(jì)算的最小光功率能夠更好地優(yōu)化激光雷達(dá)系統(tǒng)的性能。關(guān) 鍵 詞 激光雷達(dá); 最小接收功率; 探測概率; 虛警概率Abs
    發(fā)表于 05-15 01:20

    激光雷達(dá)距離像背景抑制算法研究

    激光雷達(dá)距離像背景抑制算法研究相干激光成像雷達(dá)距離像處理的一個重要內(nèi)容就是進(jìn)行背景抑制。利用原始強(qiáng)度像的均值信息進(jìn)行距離像的背景抑制因?yàn)閺?qiáng)度像受到噪聲影響而效果不佳,改進(jìn)算法加入了強(qiáng)度
    發(fā)表于 08-08 09:40

    淺析自動駕駛發(fā)展趨勢,激光雷達(dá)是未來?

    的2D畫面)的數(shù)據(jù)收集器。二、視覺主導(dǎo)還是激光雷達(dá)主導(dǎo)?據(jù)清華大學(xué)鄧志東教授介紹,自動駕駛環(huán)境感知的技術(shù)路線主要有兩種:一種是以特斯拉為代表的視覺主導(dǎo)的多傳感器融合方案,另一種以低成本激光雷達(dá)為主
    發(fā)表于 09-06 11:36

    激光雷達(dá)分類以及應(yīng)用

    激光雷達(dá)實(shí)際上是一種工作在光學(xué)波段(特殊波段)的雷達(dá),它的優(yōu)點(diǎn)非常明顯:1、具有極高的分辨率:激光雷達(dá)工作于光學(xué)波段,頻率比微波高2~3個數(shù)量級以上,因此,與微波雷達(dá)相比,
    發(fā)表于 09-19 15:51

    常見激光雷達(dá)種類

    單線激光雷達(dá)特點(diǎn):結(jié)構(gòu)簡單、掃描速度快、分辨率高、可靠性高、成本低。單線激光雷達(dá)實(shí)際上就是一個高同頻激光脈沖掃描儀,加上一個一維旋轉(zhuǎn)掃描。單線激光雷達(dá)雖然原理簡單但是可以有效、高頻的測
    發(fā)表于 09-25 11:30

    激光雷達(dá)面臨的機(jī)遇與挑戰(zhàn)

    上對地面成像,其分辨率足以能夠看到地面上的車輛。雖然這些系統(tǒng)的市場需求更小,且成本更高,但其發(fā)展將繼續(xù)降低傳感器技術(shù)的整體成本。挑戰(zhàn)由于激光雷達(dá)基于對激光脈沖返回傳感器所需時間的測量,因此高反射率的表面
    發(fā)表于 09-26 14:30

    消費(fèi)級激光雷達(dá)的起航

    線束激光雷達(dá)是主流方案,但受制于價格高昂的因素尚未普及開來。北醒光子主要產(chǎn)品線可以分成無人機(jī)定高雷達(dá) 、小型避障雷達(dá)和多線長距雷達(dá)。這些產(chǎn)品
    發(fā)表于 12-07 14:47

    固態(tài)設(shè)計(jì)激光雷達(dá)

    ``一年一度的國際消費(fèi)類電子產(chǎn)品展覽會(CES)已經(jīng)完滿收官,短短的幾天時間里,我們見識了Intel無人飛機(jī)燈光秀、百度無人車、移動行李箱等眾多“黑科技”。而北醒不僅展示了性能卓越的固態(tài)激光雷達(dá),在
    發(fā)表于 01-25 09:41

    從光電技術(shù)角度解析自動駕駛激光雷達(dá)

    度較慢,而且測量精度對啁啾時調(diào)制時的線性度程度非常敏感。雖然設(shè)計(jì)一種功能完善的激光雷達(dá)系統(tǒng)具有挑戰(zhàn)性,但這些挑戰(zhàn)都不是不可克服的。隨著研究的繼續(xù),我們越來越接近于大多數(shù)汽車生產(chǎn)結(jié)束后就
    發(fā)表于 09-10 14:10

    機(jī)器人和激光雷達(dá)都不可或缺

    控制,延長產(chǎn)品淘汰周期。思嵐的RPLIDAR 系列雷達(dá)采用電磁融合技術(shù),這種非物理接觸的無線供電和無線數(shù)據(jù)傳輸技術(shù),解決了因物理接觸機(jī)械磨損導(dǎo)致電氣連接失效、激光雷達(dá)壽命短的問題,能讓雷達(dá)
    發(fā)表于 02-15 15:12

    TOF激光雷達(dá)

    TOF 方案激光雷達(dá)激光雷達(dá)新一代技術(shù)方案,本產(chǎn)品解決了如市場三角測試法等產(chǎn)品組裝問題難,價格成本高等問題,目前提供面陣及單光子技術(shù),基于COM產(chǎn)品。集成了SPAD,TDC,DSP,RAM
    發(fā)表于 06-07 00:03

    激光雷達(dá)知多少:從技術(shù)上講講未來前景

    得到該被測物體的移動速度。 激光雷達(dá)測速的方法主要有兩大類,一類是基于激光雷達(dá)測距原理實(shí)現(xiàn),即以一定時間間隔連續(xù)測量目標(biāo)距離,用兩次目標(biāo)距離的差值除以時間間隔就可得知目標(biāo)的速度值,速度的方向根據(jù)距離
    發(fā)表于 07-14 07:56

    激光雷達(dá)

    想了解行業(yè)國內(nèi)做固態(tài)激光雷達(dá)的廠家,激光雷達(dá)里面是怎么樣的啊
    發(fā)表于 01-17 15:29

    FMCW激光雷達(dá)與dTOF激光雷達(dá)的區(qū)別在哪?

    FMCW激光雷達(dá)與dTOF激光雷達(dá)的區(qū)別在哪?
    發(fā)表于 07-23 13:22

    激光雷達(dá)是什么,激光雷達(dá)的應(yīng)用說明

    優(yōu)勢。隨著科技的不斷發(fā)展,激光雷達(dá)的應(yīng)用越來越廣泛,在機(jī)器人、無人駕駛、無人車等領(lǐng)域都能看到它的身影。 激光雷達(dá)現(xiàn)狀-低成本和高穩(wěn)定不可兼得? 相較于十分依賴算法、需要海量數(shù)據(jù)進(jìn)行訓(xùn)練、受環(huán)境因素影響頗大的攝像頭視覺和識別精
    的頭像 發(fā)表于 06-20 16:53 ?2.4w次閱讀