基于自动驾驶车辆的激光雷达与摄像头之间的在线标定算法

本文探讨了64线激光雷达与摄像头在线标定修正的方法,通过概率检查函数检测离线标定的偏差,并使用在线跟踪算法进行实时校正。论文假定有一个约70%-80%准确的初始离线标定转换矩阵。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

原文首发于微信公众号「3D视觉工坊」——基于自动驾驶车辆的激光雷达与摄像头之间的在线标定算法

本文英文名为《Automatic Online Calibration of Cameras and Lasers》

文献作者:Jesse Levinson, Sebastian Thrun,Stanford Artificial Intelligence Laboratory {jessel,thrun}@stanford.edu

本论文翻译和复现作者来自Kevin Liu

论文主要内容

该文章主要针对的是自动驾驶领域中,64线激光雷达和摄像头之间的在线标定修正(注意:是修正,不是在线标定)。该论文的主要思想是通过一个概率检车函数判定,激光雷达和摄像头之间的离线标定在车辆运行的过程中是否偏离,如果发生偏移,就通过一个在线跟踪修正的算法将其拉回到正确的标定矩阵范围内。(注意:该论文需要一个相对比较准的离线标定的转换矩阵建立摄像头和激光雷达之间的一致性联系,因为论文中默认该离线标定的转换矩阵有70%-80%的准度)。

结合多传感设备以实现高级的感知能力是自动驾驶汽车导航的关键要求。传感器融合用于获取有关周围环境的丰富信息。摄像头激光雷达传感器的融合可获取精确的范围信息,该信息可以投影到可视图像数据上。这样可以对场景有一个高层次的认识,可以用来启用基于上下文的算法,例如避免碰撞更好的导航。组合这些传感器时的主要挑战是将数据对齐到一个公共域中。由于照相机的内部校准中的误差,照相机激光雷达之间的外部校准以及平台运动导致的误差,因此这可能很困难。在本文中,我们研究了为激光雷达传感器提供运动校正所需的算法。由于不可能完全消除由于激光雷达的测量值投影到同一里程计框架中而导致的误差,因此,在融合两个不同的传感器时,必须考虑该投影的不确定性。这项工作提出了一个新的框架,用于预测投影到移动平台图像帧(2D)中的激光雷达测量值(3D)的不确定性。所提出的方法将运动校正的不确定性外部和内部校准中的误差所导致的不确定性相融合。通过合并投影误差的主要成分,可以更好地表示估计过程的不确定性。我们的运动校正算法和提出的扩展不确定性模型的实验结果通过在电动汽车上收集的真实数据进行了演示,该电动汽车配备了可覆盖180度视野的广角摄像头和16线扫描激光雷达
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

3D视觉工坊

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值