AVP-SLAM論文復現代碼開源:停車場自主代客泊車視覺SLAM框架
基于秦通等大佬的AVP-SLAM論文,對其進行了代碼復現,并做了一些新的探索。代碼開源在github上,開源地址請訪問:
https://link.zhihu.com/?target=https%3A//github.com/liuguitao/AVP-SLAM-PLUS
先快速瀏覽下AVP-SLAM代碼復現版本的建圖及定位效果吧。建圖效果如下圖所示:
基于先驗地圖的定位效果如下圖所示:
建圖及定位的詳細效果可訪問下面的視頻鏈接:
https://link.zhihu.com/?target=https%3A//www.bilibili.com/video/BV11R4y137xb/
接下來將從AVP-SLAM-PLUS原理、仿真環境搭建、實驗結果、致謝等四部分進行介紹。
1. AVP-SLAM-PLUS原理
AVP-SLAM的pipeline如下圖所示,摘自AVP-SLAM論文。
復現版本AVP-SLAM-PLUS的pipeline如圖所示
AVP-SLAM-PLUS是一款同時支持RGB相機和RGBD相機的自主泊車環視視覺SLAM系統。除了提供SLAM功能,該系統還支持基于先驗地圖的定位(這點AVP-SLAM也有)。
下面以環視RGB相機為例,介紹下AVP-SLAM-PLUS系統的工作流程:
當系統接收到環視相機發送的圖像(預先進行圖像時間同步)后,依據IPM原理,轉化為鳥瞰圖點云。IPM原理可參考AVP-SLAM原論文。
將多個相機的鳥瞰圖點云拼接成一張點云后,將該點云與地圖進行配準,求解當前幀機器人的位姿。配準方式可靈活選用NDT或ICP。
當較上一個關鍵幀運動距離超過閾值時,創建新的關鍵幀,并將新關鍵幀的點云加入地圖中。
當系統執行完畢后,保存地圖到指定pcd文件中。
利用保存的地圖,即可進行基于先驗地圖的重定位。
環視RGBD相機原理與RGB相機原理相似,僅在點云拼接原理上有所不同。環視RGBD相機利用相機外參,將其他相機的點云轉到同一個相機的坐標上,組成一幀環視的點云。
2. 仿真環境搭建
為了檢驗AVP-SLAM-PLUS系統的性能,使用gazebo仿真環境進行實驗。仿真環境主要包括兩部分,小車模型和帶停車位的路面環境。
仿真小車借鑒了ros_exploring的開源小車仿真模型。
路面模型借鑒了AVP-SLAM-SIM的開源道路環境仿真模型。
3. 實驗
環視RGB相機建圖實驗效果如下
環視RGB相機基于先驗地圖重定位,實驗效果如下
4. 致謝
感謝秦通等大佬的研究工作,感謝ros_exploring和AVP-SLAM-SIM的開源仿真環境。
最后,希望這項工作能拋磚引玉,SLAM領域越來越欣欣向榮。
文章轉自知乎;
原文鏈接:
https://zhuanlan.zhihu.com/p/452749801
*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。