精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ORB-SLAM3整體流程詳解

新機(jī)器視覺 ? 來源:古月居 ? 2023-06-19 09:28 ? 次閱讀

0. 簡介

那篇文章中提到了ORB-SLAM3是一個支持視覺、視覺加慣導(dǎo)、混合地圖的SLAM系統(tǒng),可以在單目,雙目和RGB-D相機(jī)上利用針孔或者魚眼模型運(yùn)行。

與ORB-SLAM2相比,ORB-SLAM3在處理大視差和長時間未觀測到的場景時效果更好。它還提供了更準(zhǔn)確的幀間運(yùn)動估計(jì)和更快的處理速度。

此外,ORB-SLAM3還支持更多的傳感器,包括RGB-D攝像頭和車載LIDAR。ORB-SLAM3的代碼結(jié)構(gòu)也比ORB-SLAM2更加簡潔,使得它更容易理解和擴(kuò)展。

1. 主要貢獻(xiàn)

個單目和雙目的視覺慣導(dǎo)SLAM系統(tǒng):全部依賴于MAP(最后后驗(yàn)概率估計(jì)),即使是在IMU初始化的時候。

高召回率的場景重識別算法:DBoW2需要匹配三個連續(xù)的關(guān)鍵幀,太慢了。

作者的方法是:候選的關(guān)鍵幀第一次就進(jìn)行幾何一致性檢測,然后利用三個共視的關(guān)鍵幀進(jìn)行局部的一致性檢驗(yàn),這種策略提升了召回率,并簡化了數(shù)據(jù)關(guān)聯(lián),從而提高了地圖準(zhǔn)確性,但計(jì)算成本變高。

第一個可以解決純視覺或者視覺慣導(dǎo)的完整的混合地圖的SLAM系統(tǒng)。

在單目或者雙目的系統(tǒng)中,Atlas代表的是一系列不連續(xù)的地圖,而且可以把他們應(yīng)用到所有的建圖過程中:場景重識別、相機(jī)重定位、閉環(huán)檢測和精確的地圖融合。

這就允許地圖是在不同的時間構(gòu)建的(增量的SLAM系統(tǒng)),純視覺的Atlas是參考的2019年IROS的一篇文章:ORBSLAM-atlas: a robust and accurate multi-map system,本文又添加了視覺慣導(dǎo)的混合地圖系統(tǒng)來實(shí)現(xiàn)場景重識別。

抽象的相機(jī)表示:使SLAM系統(tǒng)與所使用的相機(jī)模型無關(guān)。并允許通過提供其投影,非投影和Jacobian函數(shù)來添加新模型我們提供了針孔和魚眼模型的實(shí)現(xiàn)。

2. ORB-SLAM2 和 ORB-SLAM3 改進(jìn)代碼

這部分可以看一下作者的《使用ORBSLAM2進(jìn)行kineticV2稠密建圖,實(shí)時轉(zhuǎn)octomap建圖以及導(dǎo)航》這篇文章。

這里來匯總一下2,3中常見的擴(kuò)展,算是一個大全吧

1.高翔實(shí)現(xiàn)的添加稠密點(diǎn)云地圖

2b4f2fea-0e31-11ee-962d-dac502259ad0.png

2b5fba18-0e31-11ee-962d-dac502259ad0.png

3.使用SVO中直接法來跟蹤代替耗時的特征點(diǎn)提取匹配,在保持同樣精度的情況下,是原始ORB-SLAM2速度的3倍

2b736842-0e31-11ee-962d-dac502259ad0.png

4.雙目VIO版本,加入了LK光流和滑動窗口BA優(yōu)化

2b928a4c-0e31-11ee-962d-dac502259ad0.png

5.VI-ORB-SLAM2

2ba36042-0e31-11ee-962d-dac502259ad0.png

6.添加了支持魚眼

2bb4f1ae-0e31-11ee-962d-dac502259ad0.png

7.添加保存和導(dǎo)入地圖功能

2bc88d36-0e31-11ee-962d-dac502259ad0.png

8.添加保存和導(dǎo)入地圖功能

2be03f08-0e31-11ee-962d-dac502259ad0.png

9.添加了地圖可視化

2bea8ce2-0e31-11ee-962d-dac502259ad0.png

2bf4d710-0e31-11ee-962d-dac502259ad0.png

11.添加了點(diǎn)線融合

2c04c1ac-0e31-11ee-962d-dac502259ad0.png

12.使用了一種更好的特征選擇方法

2c1b25d2-0e31-11ee-962d-dac502259ad0.png

13.動態(tài)語義SLAM 目標(biāo)檢測+VSLAM+光流/多視角幾何動態(tài)物體檢測+octomap地圖+目標(biāo)數(shù)據(jù)庫

2c271ba8-0e31-11ee-962d-dac502259ad0.png

14.用YOLO v3的語義信息來增加跟蹤性能

2c2ed596-0e31-11ee-962d-dac502259ad0.png

2c4439fe-0e31-11ee-962d-dac502259ad0.png

16.提出了一種構(gòu)建3D密集語義圖的方法,該方法同時利用YOLOv3[3]的2D圖像標(biāo)簽和3D幾何信息

2c5daf92-0e31-11ee-962d-dac502259ad0.png

17.ORB-SLAM2在unity中仿真

2c656e76-0e31-11ee-962d-dac502259ad0.png

18.ORB-SLAM2使用CUDA加速

2c70eb34-0e31-11ee-962d-dac502259ad0.png

19.ORB-SLAM2

加入距離最優(yōu)路徑規(guī)劃器利用該模型來約束路徑,使得每個姿勢中相關(guān)聯(lián)的地圖點(diǎn)的數(shù)量高于閾值。

2c871684-0e31-11ee-962d-dac502259ad0.png

20.增加了RGBD-IMU的運(yùn)行模式和ROS接口,增加了單目IMU和雙目IMU的ROS接口,替換了詞典為二進(jìn)制格式,加載速度更快。

依據(jù)ORB_SLAM3重寫了RGBD-IMU的ROS接口,避免出現(xiàn)隊(duì)列擁塞,提供了Kinect for Azure的參數(shù)文件

2c9bb8c8-0e31-11ee-962d-dac502259ad0.png

21.將激光雷達(dá)數(shù)據(jù)集成到ORB-SLAM3中

2ca44362-0e31-11ee-962d-dac502259ad0.png

2cbb35ae-0e31-11ee-962d-dac502259ad0.png

23.在ORB-SLAM3中使用深度學(xué)習(xí)YOLOv3

2ccfc6fe-0e31-11ee-962d-dac502259ad0.png

24.使用ORB-SLAM3創(chuàng)建周圍環(huán)境的分段3D八進(jìn)制圖,可以在八進(jìn)制圖中刪除或添加特定的分段對象

2ce39774-0e31-11ee-962d-dac502259ad0.png

25.一種基于RGB-D模式將3D激光雷達(dá)深度信息集成到現(xiàn)有ORBSLAM3中的新方法。

我們提出并比較了兩種深度圖生成方法:傳統(tǒng)的計(jì)算機(jī)視覺方法,即逆膨脹操作和基于監(jiān)督深度學(xué)習(xí)的方法。

通過添加直接讀取激光雷達(dá)點(diǎn)云的所謂RGB-L(LiDAR)模式,將前者直接集成到ORB-SLAM3框架中。

2cedb3bc-0e31-11ee-962d-dac502259ad0.png

3. 主要結(jié)構(gòu)

由于網(wǎng)上對ORB-SLAM3的內(nèi)容很多了,這里打算換一個形式,如果這里大段重復(fù)別人的內(nèi)容不是很好,這里換一種形式,即用簡單的話語+鏈接的形式來完成整個ORB-SLAM3的介紹。

這里的圖是以單目融合IMU的文件(Mono_inertial_tum_vi.cc)為例的。但是我們需要注意的是我們一般會使用ros作為 warpper,所以我們會使用ros_mono_inertial.cc完成理解

2cf8dbc0-0e31-11ee-962d-dac502259ad0.png

4. 主函數(shù)main

(1)首先是ros系統(tǒng)的初始化,以及啟動相關(guān)線程

ros::init(argc, argv, "Mono_Inertial");
ros::NodeHandle n("~");

(2)創(chuàng)建SLAM系統(tǒng),system會初始化所有的系統(tǒng)進(jìn)程,并且準(zhǔn)備好生成幀,此處會調(diào)用system的構(gòu)造函數(shù)System::System(),具體見System.cc

 // Create SLAM system. It initializes all system threads and gets ready to process frames.
 ORB_SLAM3::System SLAM(argv[1],argv[2],ORB_SLAM3::IMU_MONOCULAR,true);

(3)準(zhǔn)備捕獲圖像,并用SLAM類進(jìn)行初始化

ImuGrabber imugb;
 ImageGrabber igb(&SLAM,&imugb,bEqual); // TODO


//ImageGrabber類如下
class ImageGrabber
{
public:
  ImageGrabber(ORB_SLAM3::System* pSLAM, ImuGrabber *pImuGb, const bool bClahe): mpSLAM(pSLAM), mpImuGb(pImuGb), mbClahe(bClahe){}//類的初始化


  void GrabImage(const sensor_msgs::ImageConstPtr& msg);//捕獲圖像,并進(jìn)行跟蹤
  cv::Mat GetImage(const sensor_msgs::ImageConstPtr &img_msg);
  void SyncWithImu();


  queue img0Buf;
  std::mutex mBufMutex;


  ORB_SLAM3::System* mpSLAM;
  ImuGrabber *mpImuGb;


  const bool mbClahe;
  cv::Ptr mClahe = cv::createCLAHE(3.0, cv::Size(8, 8));
};

(4)訂閱話題,獲取彩色圖像,當(dāng)接收到圖像后便會運(yùn)行此函數(shù),調(diào)用ImageGrabber中的GrabImage函數(shù)。

如果運(yùn)行程序時出現(xiàn)沒有畫面的情形,大概率是因?yàn)樵掝}名稱不對應(yīng),先使用rostopic list或者rviz查看發(fā)布的話題,然后更改下面代碼中的話題名稱。

 // Maximum delay, 5 seconds
 ros::Subscriber sub_imu = n.subscribe("/imu", 1000, &ImuGrabber::GrabImu, &imugb); 
 ros::Subscriber sub_img0 = n.subscribe("/camera/image_raw", 100, &ImageGrabber::GrabImage,&igb);

(5)在回調(diào)函數(shù)中的GrabImage函數(shù)作用是,將訂閱獲取的ros image message轉(zhuǎn)換為矩陣類型,并將rgb圖像以及時間戳參數(shù)壓入img0Buf,并將其傳遞給System中的TrackStereo函數(shù),進(jìn)行跟蹤。這里會完成和IMU傳感器對齊。

void ImageGrabber::SyncWithImu()
{
 while(1)
 {
  cv::Mat im;
  double tIm = 0;
  if (!img0Buf.empty()&&!mpImuGb->imuBuf.empty())
  {
   tIm = img0Buf.front()->header.stamp.toSec();
   if(tIm>mpImuGb->imuBuf.back()->header.stamp.toSec())
     continue;
   {
   this->mBufMutex.lock();
   im = GetImage(img0Buf.front());
   img0Buf.pop();
   this->mBufMutex.unlock();
   }


   vector vImuMeas;
   mpImuGb->mBufMutex.lock();
   if(!mpImuGb->imuBuf.empty())
   {
    // Load imu measurements from buffer
    vImuMeas.clear();
    while(!mpImuGb->imuBuf.empty() && mpImuGb->imuBuf.front()->header.stamp.toSec()<=tIm)
 ? ? ? ?{
 ? ? ? ? ?double t = mpImuGb->imuBuf.front()->header.stamp.toSec();
     cv::Point3f acc(mpImuGb->imuBuf.front()->linear_acceleration.x, mpImuGb->imuBuf.front()->linear_acceleration.y, mpImuGb->imuBuf.front()->linear_acceleration.z);
     cv::Point3f gyr(mpImuGb->imuBuf.front()->angular_velocity.x, mpImuGb->imuBuf.front()->angular_velocity.y, mpImuGb->imuBuf.front()->angular_velocity.z);
     vImuMeas.push_back(ORB_SLAM3::Point(acc,gyr,t));
     mpImuGb->imuBuf.pop();
    }
   }
   mpImuGb->mBufMutex.unlock();
   if(mbClahe)
    mClahe->apply(im,im);


   mpSLAM->TrackMonocular(im,tIm,vImuMeas);
  }


  std::chrono::milliseconds tSleep(1);
  std::sleep_for(tSleep);
 }
}

5. 視覺SLAM圖像輸入以及初始地圖構(gòu)建

上面一節(jié)展示了這幅圖,我們也將第一列給講述完畢了,當(dāng)然是使用ROS的方式,這里也可以使用opencv等操作,避免使用ROS。

下面我們將開始介紹

TrackMonocular(im,tIm,vImuMeas);這部分的內(nèi)容。

2d12f5dc-0e31-11ee-962d-dac502259ad0.png

這部分主要完成的是將圖像傳到SLAM系統(tǒng)中并進(jìn)行跟蹤,具體可以參考ORB-SLAM3 細(xì)讀單目初始化過程(上)和ORB_SLAM3原理源碼解讀系列(1)—— ORB特征點(diǎn)提取。

這一章節(jié)中主要介紹了Frame部分,主要完成工作是特征點(diǎn)提取,涉及到的知識點(diǎn)其實(shí)很多,包括圖像金字塔、特征點(diǎn)均勻化、四叉樹算法分發(fā)特征點(diǎn)、特征點(diǎn)方向計(jì)算等等。

然后超詳細(xì)解讀ORB-SLAM3單目初始化(下篇)和ORB_SLAM3原理源碼解讀系列(2)——單目初始化這一講主要講述了Tracking::Track()。

Tracking部分作用論文已提及,包含輸入當(dāng)前幀、初始化、相機(jī)位姿跟蹤、局部地圖跟蹤、關(guān)鍵幀處理、姿態(tài)更新與保存等。

除此以外,單目SLAM系統(tǒng)需要設(shè)計(jì)專門的策略來生成初始化地圖(局部建圖),這也是為什么代碼中單獨(dú)設(shè)計(jì)一個CreateInitialMapMonocular()函數(shù)來實(shí)現(xiàn)單目初始化。

在文章ORB-SLAM3 單目地圖初始化(終結(jié)篇)、ORB_SLAM3原理源碼解讀系列(3)——創(chuàng)建單目初始化地圖和ORB-SLAM3源碼閱讀筆記1:Tracking、LocalMapping和LoopClosing三線程之間的關(guān)系里面有著詳細(xì)的解釋,這里作者建議參照著代碼注釋與文章來進(jìn)行解析。

6. System完成多地圖以及閉環(huán)檢測

經(jīng)過上一節(jié)的講述,視覺SLAM圖像輸入以及初始地圖構(gòu)建部分也已經(jīng)算是講述完畢了,最后一部分就是

2d360ebe-0e31-11ee-962d-dac502259ad0.png

6.1 多地圖系統(tǒng)

ORB-SLAM3中的地圖,大致上采用了ORB-SLAM1/2和ORB-Atlas的方法完成了重定位、回環(huán)和地圖融合。詳細(xì)內(nèi)容可以參考ORB-SLAM3多地圖管理以及ORBSLAM-Altas:多地圖SLAM

6.2 重定位

ORB-SLAM3在重定位的策略上做了一些改進(jìn)。為了保證重定位不出錯,重定位常常設(shè)置了嚴(yán)苛的條件,保證高精準(zhǔn)率而識別率較低。

舊的方法(ORB-SLAM1/2)中當(dāng)3個關(guān)鍵幀完全匹配上后才判定為重定位成功。然而作者發(fā)現(xiàn),三個關(guān)鍵幀經(jīng)過了很長的時間。

主要改進(jìn)是,當(dāng)當(dāng)前關(guān)鍵幀與數(shù)據(jù)庫的關(guān)鍵幀匹配上后,檢測與當(dāng)前關(guān)鍵幀具有共視關(guān)系的關(guān)鍵幀是否也能夠匹配,如果可以則判定為重定位成功;

否則才繼續(xù)使用接下來的關(guān)鍵幀進(jìn)行判定。,具體文章可以參考【ORB-SLAM3】LoopClosing-回環(huán)檢測與地圖融合詳述,以及ORB-SLAM3源碼閱讀筆記13:回環(huán)檢測與重定位的實(shí)現(xiàn)與分析。

6.3 視覺地圖融合

視覺地圖融合方式與ORB-Atlas的大致相同,對融合的區(qū)域起了一個新的名字叫做“銜接窗口(welding window)”。

同時指明在銜接后進(jìn)行完整位姿圖融合時,銜接窗口的關(guān)鍵幀固定以保證不會出現(xiàn)gauge freedom。(十三)ORBSLAM3子地圖融合優(yōu)化

6.4 閉環(huán)

閉環(huán)檢測部分與ORB-Atlas的基本相同。




審核編輯:劉清
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2548

    文章

    50666

    瀏覽量

    751947
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    798

    瀏覽量

    58386
  • SLAM
    +關(guān)注

    關(guān)注

    23

    文章

    419

    瀏覽量

    31786
  • LiDAR芯片
    +關(guān)注

    關(guān)注

    1

    文章

    17

    瀏覽量

    3206
  • orb
    orb
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    9886

原文標(biāo)題:ORB-SLAM3整體流程詳解

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    ORB_FPGA單層圖像金字塔的ORB特征提取方案分析

    ORB特征是一種圖像識別、追蹤和匹配中常用的特征,大名鼎鼎的ORB-SLAM就是使用的這一特征。它提取FAST特征點(diǎn),并通過特征點(diǎn)附近的窗口矩計(jì)算特征點(diǎn)的方向,含方向的FAST特征也被稱為oFAST
    的頭像 發(fā)表于 09-26 11:43 ?5210次閱讀
    <b class='flag-5'>ORB</b>_FPGA單層圖像金字塔的<b class='flag-5'>ORB</b>特征提取方案分析

    PCB工藝流程詳解

    PCB工藝流程詳解PCB工藝流程詳解
    發(fā)表于 05-22 14:46

    請問用樹莓派運(yùn)行ORB-SLAM2算法可行嗎?

    最近想用樹莓派3B跑ORB-SLAM2,現(xiàn)在的問題就是Pangolin無法執(zhí)行,每次執(zhí)行都報錯 Pangolin X11: Unable to retrieve framebuffer
    發(fā)表于 03-15 22:30

    視覺SLAM特征點(diǎn)法與直接法對比分析

    視覺SLAM——特征點(diǎn)法與直接法對比以及主流開源方案對比 ORB LSD SVO DSO
    發(fā)表于 06-02 16:56

    機(jī)器人SLAM實(shí)現(xiàn)

    針對復(fù)雜環(huán)境下機(jī)器人的同時定位與地圖構(gòu)建( SLAM)存在實(shí)時性與魯棒性下降等問題,將一種基于ORB特征點(diǎn)的關(guān)鍵幀閉環(huán)檢測匹配算法應(yīng)用到定位與地圖構(gòu)建巾。研究并分析了特征點(diǎn)提取與描述符建立、幀間配準(zhǔn)
    發(fā)表于 03-26 10:57 ?6次下載

    SLAM還是存在許多開放性的問題

    我看來,vslam得發(fā)展也就是從MonoSLAM->PTAM->圖優(yōu)化SLAM->ORB-SLAM為代表的現(xiàn)代slam,其中可能還有許多內(nèi)容,不過這些開源SLAM一定程度上體現(xiàn)了
    的頭像 發(fā)表于 06-18 10:40 ?1558次閱讀
    <b class='flag-5'>SLAM</b>還是存在許多開放性的問題

    基于ORB特征的三維定位與地圖構(gòu)建算法

    SLAM框架上面我肯定自己寫不了,這里研究了一下午,使用了ORB-SLAM
    的頭像 發(fā)表于 08-16 10:57 ?1289次閱讀

    ORB SLAM中涉及的一些基礎(chǔ)概念

    ORB-SLAM 3提供了多地圖的存儲和拼接功能,在跟蹤丟失后可以嘗試將現(xiàn)有地圖和歷史地圖進(jìn)行匹配、融合,并更新當(dāng)前的活躍地圖(Active Map)
    的頭像 發(fā)表于 10-28 14:28 ?1258次閱讀

    基于視覺傳感器的ORB-SLAM系統(tǒng)的學(xué)習(xí)

    視覺SLAM是一種基于視覺傳感器的 SLAM 系統(tǒng),與激光傳感器相比,視覺傳感器具有成本低、保留環(huán)境語義信息的優(yōu)點(diǎn),能夠與深度學(xué)習(xí)進(jìn)行大量結(jié)合。
    的頭像 發(fā)表于 11-02 15:02 ?1029次閱讀

    ORB-SLAM3ORB-SLAM2相比有哪些優(yōu)勢呢?

    自主導(dǎo)航是機(jī)器人基礎(chǔ)性和關(guān)鍵性技術(shù),是機(jī)器人實(shí)現(xiàn)其他更高級任務(wù)的前提。視覺 SLAM (Simultaneous Localization And Mapping) 利用視覺傳感器獲取環(huán)境圖像信息,基于多視圖幾何算法構(gòu)建環(huán)境地圖。
    的頭像 發(fā)表于 01-16 10:58 ?2841次閱讀

    OV2SLAM(高速視覺slam)簡析

    視覺里程計(jì)最近幾年越來越受到學(xué)術(shù)界以及工業(yè)界的認(rèn)可,以ORB和VINS為代表的視覺SLAM已經(jīng)可以滿足絕大多數(shù)場景,而OV2SLAM在其他VSLAM中脫穎而出,其實(shí)時性以及具體的回環(huán)性能在測試中都得到了認(rèn)可。
    的頭像 發(fā)表于 03-21 17:16 ?1541次閱讀

    基于英特爾開發(fā)套件使用ORB-SLAM3實(shí)現(xiàn)無人機(jī)實(shí)時定位

    工業(yè)建模對于精度有著高要求,這意味著無人機(jī)的 SLAM 算法要提供可靠的實(shí)時位姿估計(jì)。ORB-SLAM3 是目前融合雙目視覺與 IMU 的優(yōu)秀算法,其前端是針對實(shí)時性優(yōu)化的 ORB 描述子與關(guān)鍵幀
    的頭像 發(fā)表于 09-18 10:12 ?1246次閱讀
    基于英特爾開發(fā)套件使用<b class='flag-5'>ORB-SLAM3</b>實(shí)現(xiàn)無人機(jī)實(shí)時定位

    視覺SLAM開源算法ORB-SLAM3原理與代碼解析

    地圖點(diǎn)/路標(biāo)點(diǎn):將圖像上被觀察到的特征點(diǎn)通過三角化等方式進(jìn)行深度恢復(fù),我們就可以得到其對應(yīng)的在三維空間的位置,同時包含幀的觀測信息,這種點(diǎn)就被稱為地圖點(diǎn)或路標(biāo)點(diǎn)。
    的頭像 發(fā)表于 11-09 17:25 ?2340次閱讀
    視覺<b class='flag-5'>SLAM</b>開源算法<b class='flag-5'>ORB-SLAM3</b>原理與代碼解析

    ORB-SLAM3整體結(jié)構(gòu)框架分析

    處理傳感器信息并實(shí)時計(jì)算當(dāng)前幀在激活地圖中的姿態(tài)。同時該模塊也決定了是否將當(dāng)前幀作為關(guān)鍵幀。在視覺-慣性模式下,通過在優(yōu)化中加入慣性殘差來估計(jì)剛體速度和 IMU 偏差。
    發(fā)表于 12-27 10:04 ?1637次閱讀
    <b class='flag-5'>ORB-SLAM3</b><b class='flag-5'>整體</b>結(jié)構(gòu)框架分析

    工程實(shí)踐中VINS與ORB-SLAM的優(yōu)劣分析

    ORB-SLAM是一種基于特征的單目視覺SLAM系統(tǒng),廣泛用于實(shí)時三維地圖構(gòu)建和機(jī)器人定位。該系統(tǒng)使用ORB特征進(jìn)行高效的視覺識別和地圖重建,支持關(guān)鍵幀技術(shù)和回環(huán)檢測來優(yōu)化地圖的準(zhǔn)確性。
    的頭像 發(fā)表于 04-08 10:17 ?2621次閱讀
    工程實(shí)踐中VINS與<b class='flag-5'>ORB-SLAM</b>的優(yōu)劣分析