R2LIVE: A Robust, Real-Time, LiDAR-Inertial-Visual tightly-coupled state Estimator and Mapping
主要工作内容 :
1. 紧耦合多传感器融合框架:
提出了一个实时的LiDAR-惯性-视觉紧耦合的多传感器融合框架,通过融合LiDAR、惯性测量单元(IMU)和相机传感器的数据,实现高鲁棒性和高精度的状态估计。
2. 双层结构:
• 基于误差状态迭代卡尔曼滤波(ESIKF)的高频滤波器里程计,用于实时里程记估计。
• 基于因子图优化的低频优化模块,在局部滑窗内进一步优化关键帧位置和视觉特征点的精度。
3. 适应多种挑战性场景:
该方法在视觉失效、LiDAR退化场景和狭窄隧道中表现出色,能够构建高精度的室内外三维地图。
R3LIVE: A Robust, Real-time, RGB-colored, LiDAR-Inertial-Visual tightly-coupled state Estimation and Mapping Package
主要工作内容 :
1. 在R2LIVE的基础上扩展:
• 在R2LIVE的基础上,通过引入视觉纹理信息,将系统从几何建图扩展为RGB彩色地图重建系统。
• 提供了同时进行定位、建图和纹理渲染的功能,适用于多样化的应用场景(如3D测绘、虚拟现实)。
2. 视觉纹理增强:
• VIO通过最小化帧到地图的光度误差直接融合视觉数据。
• 提供实时生成RGB彩色三维点云地图的能力,使得结果更适合视觉解释和相关应用。
3. 系统工程:
• 提供了丰富的离线工具以支持网格重建和纹理渲染。
• 支持多种应用场景,包括测量和绘图、3D仿真等。
4. 鲁棒性和精度改进:相较R2LIVE,R3LIVE在状态估计和建图的鲁棒性和精度上进一步提升。
R3LIVE++: A Robust, Real-time, Radiance Reconstruction Package with a Tightly-Coupled LiDAR-Inertial-Visual State Estimator
主要工作内容 :
1. 在R3LIVE基础上的进一步改进:
• 新增了对相机光度校准的全面集成,包括校正非线性响应函数和镜头渐晕效应。
• 提供了相机曝光时间的在线估计功能,能够恢复真实的环境辐射信息。
2. 增强的系统设计:
• 采用直接法处理LiDAR和视觉数据,避免了特征提取步骤。
• 优化后的框架能同时进行定位和辐射地图重建,支持实时生成三维辐射地图。
3. 扩展应用:
• 提供高动态范围(HDR)成像、虚拟环境探索和3D视频游戏等应用支持。
• 在公共和私有数据集上的广泛实验表明,R3LIVE++在定位精度、鲁棒性以及辐射地图重建的精度上优于其他系统。
三篇文章的异同点分析
相同点:
• 核心框架:三篇文章均基于紧耦合的LiDAR-惯性-视觉融合框架,采用误差状态迭代卡尔曼滤波(ESIKF)结合因子图优化,旨在提高状态估计的精度和鲁棒性。
• 多传感器融合:均整合LiDAR、IMU和相机传感器的数据以克服单一传感器的退化问题。
• 实时性:三者都设计为实时运行,并通过优化算法复杂度和高效的框架实现低延迟性能。
• 开放性:所有系统均提供开源代码,为社区贡献工具和框架。
不同点:
1. 功能目标:
• R2LIVE专注于高精度三维建图和状态估计。
• R3LIVE加入了纹理渲染,使得地图具备RGB颜色信息,适用于更广泛的视觉应用。
• R3LIVE++进一步提升至辐射信息重建,支持HDR和虚拟现实等高级应用。
2. 鲁棒性与精度:
• R3LIVE和R3LIVE++相较R2LIVE,在光度失效和几何特征稀缺场景中的性能明显提升。
• R3LIVE++的相机光度校准与曝光时间估计,提升了地图的真实感和精度。
3. 系统复杂度与扩展性:
• R3LIVE++引入了更多离线工具和高级功能(如HDR支持),使其比R2LIVE和R3LIVE复杂性更高,但也更具扩展潜力。