视觉SLAM与ROS 2技术解析
1. 视觉SLAM技术概述
视觉同步定位与地图构建(Visual SLAM)是机器人领域的关键技术,它能让机器人在未知环境中实现自我定位并构建环境地图。下面将介绍两种典型的视觉SLAM系统:ORB - SLAM3和LVI - SAM。
1.1 ORB - SLAM3系统
ORB - SLAM3是一个典型的视觉SLAM系统,主要包括数据处理、初始化、视觉里程计、地图维护、闭环检测等部分。与前两代相比,它在单目、双目视觉和RGB - D的基础上增加了惯性传感器,引入了视觉 - 惯性和多地图模式(Atlas)以及地图合并功能。它是一个完整的多地图和多会话系统,能够在纯视觉或视觉 - 惯性模式下,使用单目、双目或RGB - D传感器,采用针孔和鱼眼相机模型工作。
1.1.1 主要模块
ORB - SLAM3有四个主要模块,具体如下:
|模块名称|功能描述|
| ---- | ---- |
|跟踪线程(Tracking thread)|处理传感器信息,实时计算当前帧相对于活动地图的位姿,最小化匹配地图特征的重投影误差。同时决定当前帧是否成为关键帧。在视觉 - 惯性模式下,通过包含惯性残差的优化来估计身体速度和IMU偏差。当跟踪丢失时,尝试在所有Atlas地图中重新定位当前帧。|
|闭环与地图合并线程(Loop and map merging thread)|以关键帧速率检测活动地图和整个Atlas之间的公共区域。如果公共区域属于活动地图,则进行闭环校正;如果属于不同地图,则将两个地图无缝合并为一个,成为新的活动地图。闭环校正后,在独立线程中启动全BA以进一步优化地图,不
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



