SLAM综述笔记-A Survey of Simultaneous Localization and Mapping with an Envision in 6G Wireless Networks

本文综述了激光雷达SLAM、视觉SLAM、融合技术及6G无线网络的设想。讨论了SLAM的传感器类型、挑战、未来趋势,包括多传感器融合、语义SLAM和6G的低延迟、高数据速率在SLAM中的潜在应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

A Survey of Simultaneous Localization and Mapping with an Envision in 6G Wireless Networks

这是一篇就激光与视觉SLAM、传感器融合、深度学习等现有算法进行总结并提出6G的一些设想的论文。我的关注点是激光,视觉的细节可以自行阅读原文。部分总结成了思维导图,这篇文章可以当做学习SLAM的一个词典,节省了很多查阅文献的时间。深夜整理,如有错误欢迎留言~

摘要:
在这里插入图片描述
本文综述了激光雷达SLAM、视觉SLAM及其融合技术。对于Lidar或visual SLAM,本次调查阐述了传感器的基本类型和产品、开源系统的种类和历史、嵌入式深度学习、面临的挑战和未来。此外,还补充了视觉惯性里程计。对于激光雷达和视觉融合SLAM,重点介绍了多传感器标定、硬件、数据、任务层的融合。最后对6G无线网络的开放性问题和前瞻性思考进行了展望。

本文的贡献可以概括为:本文提供了一个高质量、全面的SLAM综述。对于新的研究人员来说,掌握大满贯的发展和学习它是非常友好的。同时,本文也可以作为有经验的研究者寻找新的兴趣方向的词典

1.introduction

SLAM是同步定位和建图的缩写,它包含定位和建图两个主要任务。这是移动机器人学中一个重要的开放性问题:要精确地移动,移动机器人必须有一个精确的环境地图;然而,要建立一个精确的地图,移动机器人的感知位置必须精确地知道**[1]**。这样,同时建立地图和定位就可以看到一个问题:先是鸡还是蛋?(地图还是运动?)

1990年,文献[2]首次提出使用扩展卡尔曼滤波(EKF)来逐步估计机器人姿态上的后验分布和标志点的位置。事实上,机器人从未知环境的未知位置出发,在运动过程中通过反复观察环境特征来定位自身的位置和姿态,然后根据自身位置建立周围环境的增量地图,从而达到同步定位和地图建设的目的。定位是近年来一个非常复杂和热门的话题。定位技术依赖于环境和对成本、精度、频率和鲁棒性的要求,可以通过GPS(全球定位系统)、IMU(惯性测量单元)和无线信号等来实现。但是GPS只能在户外工作,IMU系统有累积误差**[5]**。无线技术作为一种主动系统,无法在成本和精度之间取得平衡。近年来,随着激光雷达、摄像机、惯性测量单元等传感器的快速发展,SLAM技术应运而生。

从基于滤波器的SLAM开始,基于图的SLAM现在占据了主导地位。算法从KF(Kalman Filter)、EKF和PF(Particle Filter)发展到基于图的优化。单线程已被多线程所取代。随着多传感器的融合,SLAM技术也从最初的军用原型向后来的机器人应用转变。

本文的组织结构概括如下:第二节阐述了包括激光雷达传感器在内的激光雷达SLAM系统、开源激光雷达SLAM系统、激光雷达的深入学习、面临的挑战和未来。第三节重点介绍了视觉SLAM,包括摄像机传感器、不同的开源视觉SLAM系统、视觉惯性里程计SLAM、视觉SLAM的深度学习和未来。在第四节中,我们将展示激光雷达与视觉的融合,并为未来的SLAM研究指明几个方向。第五节说明了结合6G和SLAM的设想。结论见第六节,本文为SLAM的新研究者提供了高质量、全面的用户指南。

2 Lidar SLAM

1991年,[1]使用多个伺服安装的声纳传感器和EKF滤波器为机器人装备了SLAM系统。从声纳传感器开始,激光雷达的诞生使SLAM系统更加可靠和鲁棒性。

A lidar sensor
激光雷达传感器可分为二维激光雷达

### Photo-SLAM 技术概述 Photo-SLAM 是一种先进的实时 SLAMSimultaneous Localization and Mapping)系统,能够在单目、双目以及 RGB-D 相机上实现高效的定位与高质量的地图构建。它通过结合光度优化和几何建图方法,在多个维度上提升了系统的性能。 #### 定位效率与地图质量 Photo-SLAM 的核心优势在于其能够实现实时的高精度定位和高真实感的地图生成。具体而言,该系统在不同类型的传感器数据上进行了广泛验证,证明了其卓越的表现[^1]。无论是基于单目的稀疏特征点追踪还是利用 RGB-D 数据的深度信息,Photo-SLAM 均能提供稳定的姿态估计并生成细致的地图模型。 #### 单目相机的应用 对于单目相机,由于缺乏直接的距离测量能力,传统的 SLAM 方法通常依赖于三角化技术来恢复场景尺度。然而,这可能导致较大的累积误差。相比之下,Photo-SLAM 利用了光度一致性约束,即使仅依靠单一视角下的图像序列也能有效减少漂移现象,并保持较高的定位准确性[^4]。 ```python def single_camera_photo_slam(image_sequence): """ Simulates the core process of Photo-SLAM using a monocular camera. Args: image_sequence (list): A list of images captured by the mono-camera. Returns: tuple: Estimated trajectory, dense map representation. """ estimated_trajectory = [] dense_map = [] for frame in image_sequence: # Perform photometric optimization to refine pose estimation optimized_pose = perform_photometric_optimization(frame) # Update global map with new observations updated_dense_map = update_global_map(optimized_pose, frame) estimated_trajectory.append(optimized_pose) dense_map.extend(updated_dense_map) return estimated_trajectory, dense_map ``` #### 双目相机的优势 当扩展至双目配置时,额外的基线距离允许系统即时获取部分深度信息,从而进一步增强初始状态估计的可靠性。在此基础上,Photo-SLAM 继续发挥其独特的能力——即通过对齐重建后的彩色点云与当前观测值间的差异来进行精细化调整[^2]。 #### RGB-D 数据处理 针对配备有深度传感功能的 RGB-D 设备,Photo-SLAM 不仅继承了上述优点,还能充分利用预计算好的精确深度场完成更加复杂的任务,比如室内环境扫描或者动态障碍物规避等应用场景。此外,得益于现代硬件平台的支持,整个流程可以在资源受限的小型移动装置上流畅运行,展现出极强的实际部署价值[^3]。 --- ###
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值