Beabbit读论文系列(一):A Survey on Global LiDAR Localization: Challenges, Advances and Open Problems

本文是移动机器人全局激光雷达定位的综述。介绍了基于激光雷达的全局定位进展,包括问题提出、应用范围。回顾了相关方法,如地图、描述符提取等。还探讨了单镜头和连续全局定位,以及回环检测、重定位、多机器人定位等典型情况,最后讨论了开放挑战和方向。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近在学习全局定位相关内容,突然发现这篇综述,于是在此记录。建议大家结合着看,有些参考文献还是比较重要的。

摘要

关于自身姿势的知识是所有移动机器人应用的关键。因此,姿态估计是移动机器人的核心功能的一部分。在过去的二十年里,激光雷达扫描仪已经成为机器人定位和测绘的标准传感器。本文概述了基于lidar的全局定位的最新进展和进展。我们首先制定问题并探索应用范围。然后,我们回顾了该方法,包括最近几个主题的进步,例如地图、描述符提取和一致性检查。本文的内容组织在三个主题下。第一个主题涉及全局位置检索和局部姿态估计的组合。第二个主题是将单次测量升级为顺序全局定位的顺序测量。最后,第三个主题侧重于将单机器人全局定位扩展到多机器人系统中的多机器人定位。我们通过对全球激光雷达定位的开放挑战和有希望的方向的讨论来结束调查。据我们所知,这是移动机器人全局激光雷达定位的第一个综述。
关键词:激光雷达点云、全局定位、位置识别、姿态估计

1 导语

自主导航对于广泛的移动机器人应用是必不可少的,包括道路上的自动驾驶汽车[1]和农业中的农业机器人[2]。为了实现这一点,机器人定位在几乎所有导航系统中都发挥着不可或缺的作用。今天的移动机器人任务要求这些系统在大规模和不断变化的环境中运行,这对机器人定位和映射提出了潜在的挑战。

全球导航卫星系统(GNSS)是户外机器人导航中广泛使用的设施。GNSS 主要从两个方面促进机器人定位。首先,GNSS 融合方法可以以有限的误差连续跟踪机器人的局部运动,例如 GNSS 辅助同步定位和映射 (SLAM) [3]。另一个潜在的方面是 GNSS 可以提供有关全局位置的信息。这些信息可以帮助机器人初始化其在地球上的位置,如果机器人定位失败,则恢复其位置。事实上,这两个方面都与两种典型的定位问题有关:姿态跟踪和全局定位,这些定位是在著名的概率机器人[4]中引入的。与姿态跟踪问题不同,全局定位要求机器人从头开始在给定的地图上全局定位自己。因此,位姿空间一般大于位姿跟踪问题,导致一个具有挑战性的问题需要解决。

GNSS严重依赖卫星发送的数据质量,这使得它在GNSS不友好的区域(如室内、密集的城市环境或森林)是不切实际的。在这种情况下,超宽带(UWB)和其他信号发射器[5]可以部署用于全局定位。外部标记和标签[6]还可以为视觉辅助定位提供全局位置和方向信息。这些方法依赖于外部基础设施的分布,并且通常不需要改变环境。因此,在没有改变环境的情况下使用机载传感器是移动机器人的更一般的解决方案。视觉图像是信息丰富的,很容易从相机中获得。早期的方法使用摄像机实现全局视觉定位[7],这是一个显著相关性的话题,引起了许多研究兴趣[8]。

激光探测和测距 (LiDAR) 传感器在过去 25 年取得了重大进展。早期的激光扫描仪只提供低分辨率和范围[4]的二维激光点。传感器技术的发展推动了从2D到3D的激光雷达传感,从稀疏到相对密集的点云。在 2007 年 DARPA 城市挑战赛中,Velodyne HDL64E 传感器安装在完成比赛的六个自动驾驶车辆中的五个上 [9]。激光雷达传感器现在正成为机器人社区的标准设备。激光雷达传感器通过发射和接收光直接提供距离测量。与摄像机的视觉图像相比,这些远程测量对光照和外观变化具有更强的鲁棒性,使得全局激光雷达定位在大规模和不断变化的环境中更加实用。这促使我们使用激光雷达传感器对全局定位进行全面调查。

1.1 问题提出以及论文结构

给定一个先验地图 M \mathbf{M} M和输入数据 D \mathbf{D} D,机器人的状态估计 X \mathbf{X} X可以用贝叶斯公式表述为: X ^ = arg ⁡ max ⁡ X p ( X ∣ D , M ) = arg ⁡ max ⁡ X p ( D ∣ X , M ) p ( X ∣ M ) ( 1 ) \hat{\mathbf{X}}=\arg\max_{\mathbb{X}}p(\mathbf{X}\mid\mathbf{D},\mathbf{M})=\arg\max_{\mathbb{X}}p(\mathbf{D}\mid\mathbf{X},\mathbf{M})p(\mathbf{X}\mid\mathbf{M}) (1) X^=argXmaxp(XD,M)=argXmaxp(DX,M)p(XM)(1)
其中 p ( X ∣ D , M ) p(\mathbf{X}\mid\mathbf{D},\mathbf{M}) p(XD,M)是给定状态和地图匹配的概率, p ( X ∣ M ) p(\mathbf{X}\mid\mathbf{M}) p(XM) X {X} X的先验估计,地图 M \mathbf{M} M是机器人定位的关键因素,在测量具体的定位方法之前,在第2节中介绍了经典的面向定位的LiDAR地图。具体来说,LiDAR 地图分为三种类型:第 2.1 节中的基于关键帧的子图、第 2.2 节中的全局特征图和第 2.3 节中的全局度量图。

对于局部位姿跟踪,先验估计 p ( X ∣ M ) p(\mathbf{X}\mid\mathbf{M}) p(XM)通常遵循特定的单峰分布,例如 p ( X ) ∼ N ( ⋅ ) p(\mathbf{X})\sim\mathcal{N}(\cdot) p(X)N()。然而,对于全局定位,机器人缺乏对它在哪里的知识,位姿误差不能有界。在经典的概率机器人[4]中,概率 p ( X ∣ M ) p(\mathbf{X}\mid\mathbf{M}) p(XM)通常遵循均匀分布,没有机器人姿态的先验,即 p ( X ∣ M ) = 1 ∣ X ∣ p(\mathbf{X}\mid\mathbf{M})=\frac1{|\mathbb{X}|} p(XM)=X1。得到的估计问题由下式给出:
X ^ = arg ⁡ max ⁡ X p ( D ∣ X , M ) ( 2 ) \hat{\mathbf{X}}=\arg\max_\mathbb{X}p(\mathbf{D}\mid\mathbf{X},\mathbf{M})\quad(2) X^=argXmaxp(DX,</

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值