EpsAvlc:
這個事情的回答需要基于你的動機。
如果你想改進已有的算法以獲得在數據集上的視覺里程計定位精度上的提升,那么我的判斷是比較難。
如果你是在實際場景中發現已有的框架(例如ORB-SLAM)的定位精度不能達到論文中,或者你預想的精度,那么這個事情是可以根據實際場景討論的。
排名6, 11, 12, 14, 15的方案是基于視覺的,或者至少融合了視覺。其漂移誤差大都低于1%。這是什么概念?我本科時參加的機器人競賽里,經過仔細標定的輪式里程計,精度也不過1%。當然,視覺里程計的最終漂移誤差一般都是回環后再算的,直接使用的話根據前端的調教程度,大概可以看做1%左右。不過無論怎樣,對于增量式的定位方案,1%的誤差應該都可以算是差強人意了。想要再有提升還是挺困難的,要么就加入許多Trick(過擬合數據集),但是感覺意義不大。
如果是在一些復雜場景下需要提升定位精度,那么還是有許多事情可以做的。像之前答主提到的,用語義分割,將動態物體上的特征點濾去,以提升BA精度。我認為有一些場景,是目前已有的框架力所不能逮的:
1.Long-term場景。如何保證夏天建的室外地圖,在冬天也能用?這涉及到季節不變的路標的設計與提取。語義分割天然就有long-term特性,將語義分割考慮進去是一個較好的方法。
2.高度動態的場景。比如走在去菜市場的路上,來往人群很多。人是可以精確定位的,但是SLAM可能就要抓瞎了。
3.紋理缺失的場景。這算是室內SLAM時經常需要面對的事情了。
這三個問題,其實都有許多工作已經在做了。谷歌學術上搜索相關關鍵字就有。
就像綜述《Past, Present, and Future of SimultaneousLocalization And Mapping: Towards theRobust-Perception Age》標題所述,目前魯棒才是SLAM的關鍵命題。發布于 06-27
鄭純然:
可以做一些深度學習輔助提取路標的工作,比如:如果已經知道圖像中某個物體屬于一個既定的類別,然后再提角點,就會比針對全圖提角點魯棒性高很多。
劉宴誠:
具體細節太多了,ORBSLAM2這個框架基本上所有的代碼都在圍繞如何提高特征點的質量。其實想想特征點法提高定位精度無非就是如何保證特征點匹配的準確以及特征點選取的準確,可問題就出在無法保證百分百絕對精確,所以通過很多騷操作把這個事情做到極致,就可以提高定位精度了。
編輯:jq
-
SLAM
+關注
關注
23文章
419瀏覽量
31786 -
數據集
+關注
關注
4文章
1205瀏覽量
24641 -
深度學習
+關注
關注
73文章
5492瀏覽量
120975
原文標題:視覺SLAM怎么去提高定位精度?
文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論