精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動(dòng)駕駛四大核心技術(shù)的環(huán)境感知的詳細(xì)概述

ml8z_IV_Technol ? 來(lái)源:未知 ? 作者:易水寒 ? 2018-05-13 09:15 ? 次閱讀

人類駕駛員會(huì)根據(jù)行人的移動(dòng)軌跡大概評(píng)估其下一步的位置,然后根據(jù)車速,計(jì)算出安全空間(路徑規(guī)劃),公交司機(jī)最擅長(zhǎng)此道。無(wú)人駕駛汽車同樣要能做到。要注意這是多個(gè)移動(dòng)物體的軌跡的追蹤與預(yù)測(cè),難度比單一物體要高得多。這就是環(huán)境感知,也是無(wú)人駕駛汽車最具難度的技術(shù)。

今天介紹一下環(huán)境感知的內(nèi)容。環(huán)境感知也被稱為MODAT(Moving Object Detection andTracking)。

自動(dòng)駕駛四大核心技術(shù),分別是環(huán)境感知、精確定位、路徑規(guī)劃、線控執(zhí)行。環(huán)境感知是其中被研究最多的部分,不過(guò)基于視覺(jué)的環(huán)境感知是無(wú)法滿足無(wú)人汽車自動(dòng)駕駛要求的。實(shí)際的無(wú)人駕駛汽車面對(duì)的路況遠(yuǎn)比實(shí)驗(yàn)室仿真或者試車場(chǎng)的情況要復(fù)雜很多,這就需要建立大量的數(shù)學(xué)方程。而良好的規(guī)劃必須建立對(duì)周邊環(huán)境,尤其是動(dòng)態(tài)環(huán)境的深刻理解。

環(huán)境感知主要包括三個(gè)方面,路面、靜態(tài)物體和動(dòng)態(tài)物體。對(duì)于動(dòng)態(tài)物體,不僅要檢測(cè)還要對(duì)其軌跡進(jìn)行追蹤,并根據(jù)追蹤結(jié)果,預(yù)測(cè)該物體下一步的軌跡(位置)。這在市區(qū),尤其中國(guó)市區(qū)必不可少,最典型場(chǎng)景就是北京五道口:如果你見(jiàn)到行人就停,那你就永遠(yuǎn)無(wú)法通過(guò)五道口,行人幾乎是從不停歇地從車前走過(guò)。人類駕駛員會(huì)根據(jù)行人的移動(dòng)軌跡大概評(píng)估其下一步的位置,然后根據(jù)車速,計(jì)算出安全空間(路徑規(guī)劃),公交司機(jī)最擅長(zhǎng)此道。無(wú)人駕駛汽車同樣要能做到。要注意這是多個(gè)移動(dòng)物體的軌跡的追蹤與預(yù)測(cè),難度比單一物體要高得多。這就是MODAT(Moving Object Detectionand Tracking)。也是無(wú)人駕駛汽車最具難度的技術(shù)。

下圖是一個(gè)典型的無(wú)人駕駛汽車環(huán)境感知框架 :

自動(dòng)駕駛四大核心技術(shù)的環(huán)境感知的詳細(xì)概述

這是基于激光雷達(dá)的環(huán)境感知模型,目前來(lái)說(shuō),搞視覺(jué)環(huán)境感知模型研究的人遠(yuǎn)多于激光雷達(dá)。不過(guò)很遺憾地講,在無(wú)人駕駛汽車這件事上,視覺(jué)肯定是不夠的,長(zhǎng)遠(yuǎn)來(lái)說(shuō), 激光雷達(dá)配合毫米波雷達(dá), 再加上視覺(jué)環(huán)境感知的綜合方案才能真正做到無(wú)人駕駛。

讓我們來(lái)看計(jì)算機(jī)視覺(jué)的發(fā)展歷程,神經(jīng)網(wǎng)絡(luò)的歷史可追述到上世紀(jì)四十年代,曾經(jīng)在八九十年代流行。神經(jīng)網(wǎng)絡(luò)試圖通過(guò)模擬大腦認(rèn)知的機(jī)理,解決各種機(jī)器學(xué)習(xí)的問(wèn)題。1986年Rumelhart,Hinton和Williams在《自然》發(fā)表了著名的反向傳播算法用于訓(xùn)練神經(jīng)網(wǎng)絡(luò),直到今天仍被廣泛應(yīng)用。

不過(guò)深度學(xué)習(xí)自80年代后沉寂了許久。神經(jīng)網(wǎng)絡(luò)有大量的參數(shù),經(jīng)常發(fā)生過(guò)擬合問(wèn)題,即往往在訓(xùn)練集上準(zhǔn)確率很高,而在測(cè)試集上效果差。這部分歸因于當(dāng)時(shí)的訓(xùn)練數(shù)據(jù)集規(guī)模都較小,而且計(jì)算資源有限,即便是訓(xùn)練一個(gè)較小的網(wǎng)絡(luò)也需要很長(zhǎng)的時(shí)間。神經(jīng)網(wǎng)絡(luò)與其它模型相比并未在識(shí)別的準(zhǔn)確率上體現(xiàn)出明顯的優(yōu)勢(shì),而且難于訓(xùn)練。

因此更多的學(xué)者開(kāi)始采用諸如支持向量機(jī)(SVM)、Boosting、最近鄰等分類器。這些分類器可以用具有一個(gè)或兩個(gè)隱含層的神經(jīng)網(wǎng)絡(luò)模擬,因此被稱作淺層機(jī)器學(xué)習(xí)模型。它們不再模擬大腦的認(rèn)知機(jī)理;相反,針對(duì)不同的任務(wù)設(shè)計(jì)不同的系統(tǒng),并采用不同的手工設(shè)計(jì)的特征。例如語(yǔ)音識(shí)別采用高斯混合模型和隱馬爾可夫模型,物體識(shí)別采用SIFT特征,人臉識(shí)別采用LBP特征,行人檢測(cè)采用HOG特征。

2006年以后,得益于電腦游戲愛(ài)好者對(duì)性能的追求,GPU性能飛速增長(zhǎng)。同時(shí),互聯(lián)網(wǎng)很容易獲得海量訓(xùn)練數(shù)據(jù)。兩者結(jié)合,深度學(xué)習(xí)或者說(shuō)神經(jīng)網(wǎng)絡(luò)煥發(fā)了第二春。2012年,Hinton的研究小組采用深度學(xué)習(xí)贏得了ImageNet圖像分類的比賽。從此深度學(xué)習(xí)開(kāi)始席卷全球。

深度學(xué)習(xí)與傳統(tǒng)模式識(shí)別方法的最大不同在于它是從大數(shù)據(jù)中自動(dòng)學(xué)習(xí)特征,而非采用手工設(shè)計(jì)的特征。好的特征可以極大提高模式識(shí)別系統(tǒng)的性能。在過(guò)去幾十年模式識(shí)別的各種應(yīng)用中,手工設(shè)計(jì)的特征處于統(tǒng)治地位。它主要依靠設(shè)計(jì)者的先驗(yàn)知識(shí),很難利用大數(shù)據(jù)的優(yōu)勢(shì)。由于依賴手工調(diào)參數(shù),特征的設(shè)計(jì)中只允許出現(xiàn)少量的參數(shù)。深度學(xué)習(xí)可以從大數(shù)據(jù)中自動(dòng)學(xué)習(xí)特征的表示,其中可以包含成千上萬(wàn)的參數(shù)。手工設(shè)計(jì)出有效的特征是一個(gè)相當(dāng)漫長(zhǎng)的過(guò)程。回顧計(jì)算機(jī)視覺(jué)發(fā)展的歷史,往往需要五到十年才能出現(xiàn)一個(gè)受到廣泛認(rèn)可的好的特征。而深度學(xué)習(xí)可以針對(duì)新的應(yīng)用從訓(xùn)練數(shù)據(jù)中很快學(xué)習(xí)得到新的有效的特征表示。

一個(gè)模式識(shí)別系統(tǒng)包括特征和分類器兩個(gè)主要的組成部分,二者關(guān)系密切,而在傳統(tǒng)的方法中它們的優(yōu)化是分開(kāi)的。在神經(jīng)網(wǎng)絡(luò)的框架下,特征表示和分類器是聯(lián)合優(yōu)化的。兩者密不可分。深度學(xué)習(xí)的檢測(cè)和識(shí)別是一體的,很難割裂,從一開(kāi)始訓(xùn)練數(shù)據(jù)即是如此,語(yǔ)義級(jí)標(biāo)注是訓(xùn)練數(shù)據(jù)的最明顯特征。絕對(duì)的非監(jiān)督深度學(xué)習(xí)是不存在的,即便弱監(jiān)督深度學(xué)習(xí)都是很少的。因此視覺(jué)識(shí)別和檢測(cè)障礙物很難做到實(shí)時(shí)。而激光雷達(dá)云點(diǎn)則擅長(zhǎng)探測(cè)檢測(cè)障礙物3D輪廓,算法相對(duì)深度學(xué)習(xí)要簡(jiǎn)單的多,很容易做到實(shí)時(shí)。激光雷達(dá)擁有強(qiáng)度掃描成像,換句話說(shuō)激光雷達(dá)可以知道障礙物的密度,因此可以輕易分辨出草地,樹(shù)木,建筑物,樹(shù)葉,樹(shù)干,路燈,混凝土,車輛。這種語(yǔ)義識(shí)別非常簡(jiǎn)單,只需要根據(jù)強(qiáng)度頻譜圖即可。而視覺(jué)來(lái)說(shuō)要準(zhǔn)確的識(shí)別,非常耗時(shí)且可靠性不高。

視覺(jué)深度學(xué)習(xí)最致命的缺點(diǎn)是對(duì)視頻分析能力極弱,而無(wú)人駕駛汽車面對(duì)的視頻,不是靜態(tài)圖像。而視頻分析正是激光雷達(dá)的特長(zhǎng)。視覺(jué)深度學(xué)習(xí)在視頻分析上處于最初的起步階段,描述視頻的靜態(tài)圖像特征,可以采用從ImageNet上學(xué)習(xí)得到的深度模型;難點(diǎn)是如何描述動(dòng)態(tài)特征。以往的視覺(jué)方法中,對(duì)動(dòng)態(tài)特征的描述往往依賴于光流估計(jì),對(duì)關(guān)鍵點(diǎn)的跟蹤,和動(dòng)態(tài)紋理。如何將這些信息體現(xiàn)在深度模型中是個(gè)難點(diǎn)。最直接的做法是將視頻視為三維圖像,直接應(yīng)用卷積網(wǎng)絡(luò),在每一層學(xué)習(xí)三維濾波器。但是這一思路顯然沒(méi)有考慮到時(shí)間維和空間維的差異性。另外一種簡(jiǎn)單但更加有效的思路是通過(guò)預(yù)處理計(jì)算光流場(chǎng),作為卷積網(wǎng)絡(luò)的一個(gè)輸入通道。也有研究工作利用深度編碼器(deepautoencoder)以非線性的方式提取動(dòng)態(tài)紋理,而傳統(tǒng)的方法大多采用線性動(dòng)態(tài)系統(tǒng)建模。

光流只計(jì)算相鄰兩幀的運(yùn)動(dòng)情況,時(shí)間信息也表述不充分。two-stream只能算是個(gè)過(guò)渡方法。目前CNN搞空域,RNN搞時(shí)域已經(jīng)成共識(shí),尤其是LSTM和GRU結(jié)構(gòu)的引入。RNN在動(dòng)作識(shí)別上效果不彰,某些單幀就可識(shí)別動(dòng)作。除了大的結(jié)構(gòu)之外,一些輔助的模型,比如visual hard/softattention model,以及ICLR2016上的壓縮神經(jīng)網(wǎng)絡(luò)都會(huì)對(duì)未來(lái)的深度學(xué)習(xí)視頻處理產(chǎn)生影響。

目前深度學(xué)習(xí)對(duì)視頻分析還不如手工特征,而手工特征的缺點(diǎn),前面已經(jīng)說(shuō)過(guò),準(zhǔn)確率很低,誤報(bào)率很高。未來(lái)恐怕也難以提升。

MODAT首先要對(duì)視頻分析,實(shí)時(shí)計(jì)算出地平面,這對(duì)點(diǎn)云為主的激光雷達(dá)來(lái)說(shuō)易如反掌,對(duì)視覺(jué)來(lái)說(shuō)難比登天。

自動(dòng)駕駛四大核心技術(shù)的環(huán)境感知的詳細(xì)概述

用分段平面擬合和RANSAC算法計(jì)算出真實(shí)地平面。實(shí)際單靠激光雷達(dá)的強(qiáng)度掃描成像,一樣可以得出準(zhǔn)確的地平面,這也是激光雷達(dá)用于遙感的主要原因,可以排除植被的干擾,獲得準(zhǔn)確的地形圖,大地基準(zhǔn)面。

自動(dòng)駕駛四大核心技術(shù)的環(huán)境感知的詳細(xì)概述

用VOXEL GRID濾波器將動(dòng)靜物體分開(kāi),黑棕藍(lán)綠是激光雷達(dá)發(fā)射到行人身上的每個(gè)時(shí)間段的假設(shè),與動(dòng)態(tài)物體比,靜態(tài)物體捕獲的點(diǎn)云數(shù)自然要多。

自動(dòng)駕駛四大核心技術(shù)的環(huán)境感知的詳細(xì)概述

左邊是深度學(xué)習(xí)領(lǐng)域人盡皆知的權(quán)威Kitti數(shù)據(jù)集的采集車,右邊是數(shù)據(jù)集的數(shù)據(jù)格式和內(nèi)容。Kitti對(duì)其Ground Truth有一段描述:

To generate 3Dobject ground-truth we hired a set of annotators, and asked them to assigntracklets in the form of 3D bounding boxes to objects such as cars, vans,trucks,trams, pedestrians and cyclists. Unlike most existing benchmarks, we donot rely on online crowd-sourcing to perform the labeling. Towards this goal,we create a special purpose labeling tool, which displays 3D laser points aswell as the camera images to increase the quality of the annotations.

這里Kitti說(shuō)的很明確,其訓(xùn)練數(shù)據(jù)的標(biāo)簽加注不是人工眾包,而是打造了一個(gè)自動(dòng)標(biāo)簽軟件,這個(gè)軟件把3D激光云點(diǎn)像光學(xué)圖像一樣顯示出來(lái),以此來(lái)提高標(biāo)注的質(zhì)量。很簡(jiǎn)單,激光雷達(dá)是3D ObjectDetection的標(biāo)準(zhǔn),即使視覺(jué)深度學(xué)習(xí)再?gòu)?qiáng)大,與激光雷達(dá)始終有差距。

再來(lái)說(shuō)一下Stixel(sticks abovethe ground in the image), 中文一般叫棒狀像素,這是2008年由奔馳和法蘭克福大學(xué)Hern′an Badino教授推出的一種快速實(shí)時(shí)檢測(cè)障礙物的方法,尤其適合檢測(cè)行人,每秒可做到150甚至200幀,這也是奔馳和寶馬雙目的由來(lái)。Hern′an Badino后來(lái)被卡梅隆大學(xué)的機(jī)器人實(shí)驗(yàn)室挖走了,Uber的無(wú)人車主要就是基于卡梅隆大學(xué)機(jī)器人實(shí)驗(yàn)室開(kāi)發(fā)的。Stixel的核心是計(jì)算棒狀物的上下邊緣和雙目視差,構(gòu)建一個(gè)Stixel, 可以準(zhǔn)確快速地檢測(cè)障礙物,特別是行人。這是奔馳寶馬大規(guī)模使用雙目的主要原因,相對(duì)單目的行人識(shí)別,雙目Stixel擁有碾壓性優(yōu)勢(shì)。

自動(dòng)駕駛四大核心技術(shù)的環(huán)境感知的詳細(xì)概述

通過(guò)激光雷達(dá),可以更容易獲得相應(yīng)的3D距離信息,而且也更準(zhǔn)確,因此由此來(lái)建立Steixel也更加快捷準(zhǔn)確。

現(xiàn)在該說(shuō)Tracking了,現(xiàn)在不少人把跟蹤(tracking)和計(jì)算機(jī)視覺(jué)中的目標(biāo)跟蹤搞混了。前者更偏向數(shù)學(xué),是對(duì)狀態(tài)空間在時(shí)間上的變化進(jìn)行建模,并對(duì)下一時(shí)刻的狀態(tài)進(jìn)行預(yù)測(cè)的算法。例如卡爾曼濾波,粒子濾波等。后者則偏向應(yīng)用,給定視頻中第一幀的某個(gè)物體的框,由算法給出后續(xù)幀中該物體的位置。最初是為了解決檢測(cè)算法速度較慢的問(wèn)題,后來(lái)慢慢自成一系。因?yàn)樽兂闪藨?yīng)用問(wèn)題,所以算法更加復(fù)雜,通常由好幾個(gè)模塊組成,其中也包括數(shù)學(xué)上的tracking算法,還有提取特征,在線分類器等步驟。

在自成一系之后,目標(biāo)跟蹤實(shí)際上就變成了利用之前幾幀的物體狀態(tài)(旋轉(zhuǎn)角度,尺度),對(duì)下一幀的物體檢測(cè)進(jìn)行約束(剪枝)的問(wèn)題了。它又變回物體檢測(cè)算法了,但卻人為地把首幀得到目標(biāo)框的那步剝離出來(lái)。在各界都在努力建立end-to-end系統(tǒng)的時(shí)候,目標(biāo)跟蹤卻只去研究一個(gè)子問(wèn)題,選擇性無(wú)視"第一幀的框是怎么來(lái)的"的問(wèn)題。

激光雷達(dá)的Tracking則很容易做到,以IBEO為例,IBEO每一款激光雷達(dá)都會(huì)附送一個(gè)叫IBEOObject Tracking的軟件,這是一個(gè)基于開(kāi)曼濾波器的技術(shù),最多可實(shí)時(shí)跟蹤65個(gè)目標(biāo),是實(shí)時(shí)喲,這可是視覺(jué)類根本不敢想的事。Quanergy也有類似的軟件,叫3DPerception。

自動(dòng)駕駛四大核心技術(shù)的環(huán)境感知的詳細(xì)概述

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    967

    文章

    3938

    瀏覽量

    189593
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    783

    文章

    13682

    瀏覽量

    166136
  • 環(huán)境感知
    +關(guān)注

    關(guān)注

    0

    文章

    24

    瀏覽量

    7985

原文標(biāo)題:自動(dòng)駕駛技術(shù)之——環(huán)境感知

文章出處:【微信號(hào):IV_Technology,微信公眾號(hào):智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    未來(lái)已來(lái),多傳感器融合感知自動(dòng)駕駛破局的關(guān)鍵

    駕駛的關(guān)鍵的是具備人類的感知能力,多傳感器融合感知正是自動(dòng)駕駛破局的關(guān)鍵。昱感微的雷視一體多傳感器融合方案就好像一雙比人眼更敏銳的眼睛,可以為自動(dòng)駕
    發(fā)表于 04-11 10:26

    FPGA在自動(dòng)駕駛領(lǐng)域有哪些應(yīng)用?

    是FPGA在自動(dòng)駕駛領(lǐng)域的主要應(yīng)用: 一、感知算法加速 圖像處理:自動(dòng)駕駛中需要通過(guò)攝像頭獲取并識(shí)別道路信息和行駛環(huán)境,這涉及到大量的圖像處理任務(wù)。FPGA在處理圖像上的運(yùn)算速度快,可
    發(fā)表于 07-29 17:09

    藍(lán)牙核心技術(shù)概述

    藍(lán)牙核心技術(shù)概述(一):藍(lán)牙概述藍(lán)牙核心技術(shù)概述(二):藍(lán)牙使用場(chǎng)景藍(lán)牙核心技術(shù)
    發(fā)表于 11-24 16:06

    自動(dòng)駕駛真的會(huì)來(lái)嗎?

    業(yè)界帶來(lái)了很大的負(fù)面影響,但核心仍是如何去理解autopilot,并不能因此對(duì)自動(dòng)駕駛產(chǎn)生巨大質(zhì)疑,畢竟是兩個(gè)不同功能。  “特斯拉autopilot其核心技術(shù)來(lái)說(shuō),使用的是以色列Mobile eye
    發(fā)表于 07-21 09:00

    自動(dòng)駕駛的到來(lái)

    的Telematics收發(fā)芯片,非常適合V2V及V2X等相關(guān)應(yīng)用中。  相比于傳統(tǒng)的底盤、發(fā)動(dòng)機(jī)等傳統(tǒng)汽車技術(shù)自動(dòng)駕駛更多的技術(shù)集中在電子領(lǐng)域,而且核心技術(shù)并沒(méi)有被跨國(guó)車廠或Tier
    發(fā)表于 06-08 15:25

    無(wú)人駕駛自動(dòng)駕駛的差別性

    “無(wú)人駕駛”汽車普及也有相應(yīng)的“痛點(diǎn)”,包括法律法規(guī)、倫理問(wèn)題、成本高企等。 無(wú)人駕駛汽車本質(zhì)上是一種具有高度人工智能的移動(dòng)式服務(wù)機(jī)器人,它與輔助駕駛自動(dòng)駕駛汽車具有相關(guān)性,但在發(fā)展
    發(fā)表于 09-28 16:50

    即插即用的自動(dòng)駕駛LiDAR感知算法盒子 RS-Box

    他廠家激光雷達(dá)的組合使用。RS-LiDAR-32全球首個(gè)高線束激光雷達(dá)系統(tǒng)供應(yīng)商激光雷達(dá)感知應(yīng)用領(lǐng)域人才和算法稀缺,對(duì)于大部分開(kāi)發(fā)高級(jí)自動(dòng)駕駛技術(shù)團(tuán)隊(duì)來(lái)說(shuō),必須在激光雷達(dá)環(huán)境
    發(fā)表于 12-15 14:20

    UWB主動(dòng)定位系統(tǒng)在自動(dòng)駕駛中的應(yīng)用實(shí)踐

    3萬(wàn)美元以上,相當(dāng)于一輛中級(jí)車的價(jià)格。自動(dòng)駕駛四大核心技術(shù)分別為環(huán)境感知、高精度定位、路徑規(guī)劃、控制執(zhí)行。其中
    發(fā)表于 12-14 17:30

    如何讓自動(dòng)駕駛更加安全?

    自動(dòng)駕駛、完全自動(dòng)駕駛。第級(jí)別是汽車駕駛自動(dòng)化、智能化程度最高級(jí)別,也就是通常所說(shuō)的無(wú)人駕駛
    發(fā)表于 05-13 00:26

    自動(dòng)駕駛汽車中傳感器的分析

    特斯拉在五月份發(fā)生的自動(dòng)駕駛事故,和最近在Defcon上演示的如何干擾傳感器,都充分說(shuō)明了傳感器在自動(dòng)駕駛中的重要性:環(huán)境感知自動(dòng)駕駛實(shí)現(xiàn)
    發(fā)表于 05-14 07:34

    UWB定位可以用在自動(dòng)駕駛

    的價(jià)格。自動(dòng)駕駛四大核心技術(shù)分別為環(huán)境感知、高精度定位、路徑規(guī)劃、控制執(zhí)行。其中環(huán)境
    發(fā)表于 11-18 14:15

    網(wǎng)聯(lián)化自動(dòng)駕駛的含義及發(fā)展方向

    道路上起到的作用。第三部分,針對(duì)R16 5G-V2X進(jìn)行詳細(xì)介紹,分析目前技術(shù)仍存在的不足。第部分,總結(jié)了全文主要觀點(diǎn),并強(qiáng)調(diào)了通信對(duì)未來(lái)網(wǎng)聯(lián)化自動(dòng)駕駛的重要性。  1 通信
    發(fā)表于 01-12 15:42

    自動(dòng)駕駛系統(tǒng)設(shè)計(jì)及應(yīng)用的相關(guān)資料分享

    作者:余貴珍、周彬、王陽(yáng)、周亦威、白宇目錄第一章 自動(dòng)駕駛系統(tǒng)概述1.1 自動(dòng)駕駛系統(tǒng)架構(gòu)1.1.1 自動(dòng)駕駛系統(tǒng)的三個(gè)層級(jí)1.1.2 自動(dòng)駕駛
    發(fā)表于 08-30 08:36

    自動(dòng)駕駛技術(shù)的實(shí)現(xiàn)

    的帶寬有了更高的要求。從而使用以太網(wǎng)技術(shù)及中央域控制(Domain)和區(qū)域控制(Zonal)架構(gòu)是下一代車載網(wǎng)絡(luò)的發(fā)展方向。然而對(duì)于自動(dòng)駕駛技術(shù)的實(shí)現(xiàn),涉及到感知、規(guī)劃、執(zhí)行三個(gè)層面。
    發(fā)表于 09-03 08:31

    自動(dòng)駕駛發(fā)展歷史及核心技術(shù)

    、人工智能及自動(dòng)控制等技術(shù),是典型的高新技術(shù)綜合體,自動(dòng)駕駛便與之有著異曲同工之妙。自動(dòng)駕駛核心技術(shù)
    發(fā)表于 06-02 15:57 ?0次下載
    <b class='flag-5'>自動(dòng)駕駛</b>發(fā)展歷史及<b class='flag-5'>核心技術(shù)</b>