无人驾驶-激光雷达与相机联合校准(Lidar Camera Calibration)

本文探讨了激光雷达和摄像头在无人驾驶环境感知中的作用,对比了它们的优缺点,详细介绍了各自在车道线检测、障碍物识别等方面的应用,并讨论了两者如何互补,特别是在融合感知、运动物体跟踪和预测中的协同作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.激光雷达与摄像头性能对比

在无人驾驶环境感知设备中,激光雷达和摄像头分别有各自的优缺点。


摄像头的优点是成本低廉,用摄像头做算法开发的人员也比较多,技术相对比较成熟。摄像头的劣势,第一,获取准确三维信息非常难(单目摄像头几乎不可能,也有人提出双目或三目摄像头去做);另一个缺点是受环境光限制比较大。


激光雷达的优点在于,其探测距离较远,而且能够准确获取物体的三维信息;另外它的稳定性相当高,鲁棒性好。但目前激光雷达成本较高,而且产品的最终形态也还未确定。


就两种传感器应用特点来讲,摄像头和激光雷达摄像头都可用于进行车道线检测。除此之外,激光雷达还可用于路牙检测。对于车牌识别以及道路两边,比如限速牌和红绿灯的识别,主要还是用摄像头来完成。如果对障碍物的识别,摄像头可以很容易通过深度学习把障碍物进行细致分类。但对激光雷达而言,它对障碍物只能分一些大类,但对物体运动状态的判断主要靠激光雷达完成。

2.激光雷达和摄像头分别完成什么工作

无人驾驶过程中,环境感知信息主要有这几部分:一是行驶路径上的感知,对于结构化道路可能要感知的是行车线,就是我们所说的车道线以及道路的边缘、道路隔离物以及恶劣路况的识别;对非结构道路而言,其实会更加复杂。


周边物体感知,就是可能影响车辆通行性、安全性的静态物体和动态物体的识别,包括车辆,行人以及交通标志的识别,包括红绿灯识别和限速牌识别。

对于环境感知所需要的传感器,我们把它分成三类:


感知周围物体的传感器,包括激光雷达、摄像头和毫米波雷达这三类;


实现无人驾驶汽车定位的传感器,就是 GPS 、IMU 和 Encoder;


其他传感器,指的是感知天气情况及温、湿度的传感器。


今天主要讲的是感知周围物体的传感器,即:激光雷达、毫米波雷达和摄像头。其实他们都有各自的优缺点。

在无人驾驶环境感知中,摄像头完成的工作包括:


*车道线检测;
*障碍物检测,相当于把障碍物识别以及对障碍物进行分类;
*交通标志的识别,比如识别红绿灯和限速牌。

对车道线的检测主要分成三个步骤:

第一步,对获取到的图片预处理,拿到原始图像后,先通过处理变成一张灰度图,然后做图像增强;

第二步,对车道线进行特征提取,首先把经过图像增强后的图片进行二值化( 将图像上的像素点的灰度值设置为 0 或 255,也就是将整个图像呈现出明显的黑白效果),然后做边缘提取;

第三步,直线拟合。

车道线检测难点在于,对于某些车道线模糊或车道线被泥土覆盖的情况、对于黑暗环境或雨雪天气或者在光线不是特别好的情况下,它对摄像头识别和提取都会造成一定的难度。

在无人驾驶中,激光雷达给摄像头填了哪些坑?| 硬创公开课

另一个是障碍物检测。上图是我们在十字路口做的实验,获取到原始图像后,通过深度学习框架对物体进行识别。在这当中,做训练集其实是主要的难点。

在无人驾驶中,激光雷达给摄像头填了哪些坑?| 硬创公开课

还有一个是道路标识的识别,这一部分的研究比较多,这里不再赘述。

在无人驾驶中,激光雷达给摄像头填了哪些坑?| 硬创公开课

3.激光雷达能够完成什么工作

第一是路沿检测,也包括车道线检测;第二是障碍物识别,对静态物体和动态物体的识别;第三是定位以及地图的创建。

在无人驾驶中,激光雷达给摄像头填了哪些坑?| 硬创公开课

对于路沿检测,分为三个步骤:拿到原始点云,地面点检测、提取路沿点,通过路沿点的直线拟合,可以把路沿检测出来。

在无人驾驶中,激光雷达给摄像头填了哪些坑?| 硬创公开课

接下来是障碍物识别,识别诸如行人、卡车和私家车等以及将路障信息识别出来。

在无人驾驶中,激光雷达给摄像头填了哪些坑?| 硬创公开课

障碍物的识别有这样几步,当激光雷达获取三维点云数据后,我们对障碍物进行一个聚类,如上图紫色包围框,就是识别在道路上的障碍物,它可能是动态也可能是静态的。

最难的部分就是把道路上面的障碍物聚类后,提取三维物体信息。获取到新物体之后,会把这个物体放到训练集里,然后用 SVM 分类器把物体识别出来。

在无人驾驶中,激光雷达给摄像头填了哪些坑?| 硬创公开课

如上图,左上角、左下角是车还是人?对于机器而言,它是不清楚的。右上角和右下角(上图)是我们做的训练集。做训练集是最难的,相当于要提前把不同物体做人工标识,而且这些标识的物体是在不同距离、不同方向上获取到的。

我们对每个物体,可能会把它的反射强度、横向和纵向的宽度以及位置姿态作为它的特征,进行提取,进而做出数据集,用于训练。最终的车辆、行人、自行车等物体的识别是由SVM分类器来完成。我们用这种方法做出来的检测精确度还是不错的。

在无人驾驶中,激光雷达给摄像头填了哪些坑?| 硬创公开课

利用激光雷达进行辅助定位。定位理论有两种:基于已知地图的定位方法以及基于未知地图的定位方法。

基于已知地图定位方法,顾名思义,就是事先获取无人驾驶车的工作环境地图(高精度地图),然后根据高精度地图结合激光雷达及其它传感器通过无人驾驶定位算法获得准确的位置估计。现在大家普遍采用的是基于已知地图的定位方法。

在无人驾驶中,激光雷达给摄像头填了哪些坑?| 硬创公开课

制作高精度地图也是一件非常困难的事情。举个例子,探月车在月球上,原来不知道月球的地图,只能靠机器人在月球上边走边定位,然后感知环境,相当于在过程中既完成了定位又完成了制图,也就是我们在业界所说的 SLAM 技术。

激光雷达是获取高精度地图非常重要的传感器。通过 GPS、IMU 和 Encoder 对汽车做一个初步位置的估计,然后再结合激光雷达和高精度地图,通过无人驾驶定位算法最终得到汽车的位置信息。

高精地图可分为基础层、道路信息层、周围环境信息层和其他信息层。

比如基础层,有车道的宽度、坡度、倾斜角、航向、高程、车道线信息、人行道和隔离带等等。之后还有信息层,相当于告诉每一个道路上限速的标记、红绿灯标记,还有一个就是环境信息层,相当于周围建筑物的三维模型。其他信息层,比如说天气信息、施工信息等等,天气信息非常重要,它提供一个场景信息,比如说天气非常恶劣的时候,比如下雨天,如果高精度地图能提供天气信息,或者无人驾驶汽车车身所携带的传感器,能够感知到下雨信息,这时非常有利于指导无人驾驶汽车做一些决策。

现在对高精度地图的定义,不同地图厂家有不同定义的方式。做高精度地图是为了辅助无人驾驶,所谓高精度地图就是相比之前的导航地图,前者精确度更高,可以达到厘米级;另一个就是高精度地图包含更多的信息量,比如说车道的宽度、倾斜度等信息。

4.激光雷达与摄像头的融合

在无人驾驶中,激光雷达给摄像头填了哪些坑?| 硬创公开课

激光雷达与摄像头融合,其实相当于是激光雷达发挥激光雷达的优势,摄像头发挥摄像头的优势,他们在某些地方是做得不够好,需要两个传感器甚至多个传感器信息进行底层的融合。

在融合的时候,首先第一步,标定。比如说左上角(上图),我看到凳子,左下角激光雷达也看到的是凳子,那么我通过标定的方式告诉它,其实两个是同一个物体。

其实摄像头发现同一个物体是非常容易的,比如做人的跟踪或车的跟踪。对于激光雷达而言, 要去识别前后帧是否同一辆车和同一个行人是非常困难的。

在无人驾驶中,激光雷达给摄像头填了哪些坑?| 硬创公开课

激光雷达有一个好处:如果可以通过摄像头告诉它前后两帧是同一个物体,那么通过激光雷达就可以知道物体在这前后两帧间隔内:运动速度和运动位移是多少。这是非常关键的,因为只有做运动物体的跟踪才能做一些预测。

人在驾驶的过程中,他得时刻知道周围物体的运动状态。对于无人驾驶,除了对车辆进行位置的估计以及导航之外,其实还需要对周边物体、运动物体的跟踪和预测,这是非常有意义的。

5.算法

 

由相机捕获的图像数据由(U,V)表示,激光雷达捕获的3维点阵云用(X,Y,Z)表示,我们的目标是建立一个转化矩阵M,将3维点(x,y,z)映射到2维点(u,v),即:

矩阵(fu,fv,u0,v0)是相机参数,fu以及fv是XY轴方向尺度因子(水平方向和垂直方向的有效焦距),u0,v0是像平面(image plane)的中心点,又称主点坐标。R为旋转矩阵,t为平移矢量。

根据不同姿态下定标板平面,可得到一系列的线性方程,解得标定参数。

6.ros中的联合校准包

这个包用于Velodyne激光雷达和相机联合校准,适用于VLP-16及以上,依赖于aruco_ros包和轻微修改的aruco_mapping包

1)构建

clone代码从https://github.com/ankitdhall/lidar_camera_calibration.git,把该代码仓库, dependencies/aruco_ros and dependencies/aruco_mapping 目录放到 path/to/your/ros/workspace/src , 执行下面的命令:

 
  1. catkin_make -DCATKIN_WHITELIST_PACKAGES="aruco_ros;aruco_mapping"

  2. catkin_make -DCATKIN_WHITELIST_PACKAGES=""

如果,没有安装velodyne包需要先安装该包,make aruco_ros时首先要先安装aruco_msgs和aruco

2)开始

为了相机与激光雷达进行联合校准,两个配置文件需要进行修改,配置文件在lidar_camera_calibration/conf目录下。

 

config_file.txt

1280 720
-2.5 2.5
-4.0 4.0
0.0 2.5
0.05
2
0
611.651245 0.0 642.388357 0.0
0.0 688.443726 365.971718 0.0
0.0 0.0 1.0 0.0
1.57 -1.57 0.0

文件格式:

 

image_width image_height
x- x+
y- y+
z- z+ //去除点阵云中不想要 的点
cloud_intensity_threshold
number_of_markers
use_camera_info_topic? //是否使用camera_info topic
fx 0 cx 0
0 fy cy 0
0 0 1 0

MAX_ITERS

initial_rot_x initial_rot_y initial_rot_z

3)使用

通过如下命令进行启动:

roslaunch lidar_camera_calibration find_transform.launch

 

参考文献

【1】在无人驾驶中,激光雷达给摄像头填了哪些坑*https://www.leiphone.com/news/201611/qffizZw13gxoND6Z.html

 

【2】Calibration between Color Camera and 3D LIDAR Instrumentswith a Polygonal Planar Board

【3】激光雷达和摄像机联合标定识别作物

【4】ros联合校准包*https://github.com/ankitdhall/lidar_camera_calibration

### 激光雷达相机联合标定方法及工具 #### 背景介绍 激光雷达相机联合标定对于实现传感器融合至关重要,尤其是在自动驾驶和机器人视觉领域。这一过程旨在确定两个不同类型的传感器之间的几何关系,即求解它们间的旋转矩阵和平移向量[^2]。 #### 方法概述 联合标定时通常采用特定模式的目标物作为参照标准,比如棋盘格图案或特制的标定板。该目标物需被两种设备共同观测到以便建立对应点集间的关系模型。具体来说: - **数据采集阶段**:放置好带有已知尺寸特征的标准物体于场景内;分别利用摄像头拍摄图像以及LiDAR扫描获取三维坐标信息; - **匹配算法应用**:寻找并提取两组数据中的同名点(例如角点),进而计算外参参数——描述二者相对位置姿态变化规律的一系列数值集合,包括但不限于欧拉角表示法下的三轴转动角度θx, θy 和 θz 及沿各自方向上的位移d_x,d_y,d_z等[^1]。 #### 工具推荐 针对上述需求,在实际操作过程中可以选择多种软件平台来辅助完成这项工作: - **MATLAB**: 提供了一套完整的解决方案用于处理此类任务,内置函数支持读取来自各种品牌的LIDAR文件格式,并能方便地导入RGB图片序列进行后续分析。此外还有专门设计好的图形界面指导用户一步步走完整个流程。 - **ROS (Robot Operating System)**: 开源社区贡献了许多现成包帮助开发者快速搭建实验环境测试不同的校准策略效果如何。其中`calibration`仓库下就有不少实用的小工具可供选用尝试。 ```bash # ROS中安装camera_lidar_calibration包的例子 sudo apt-get install ros-noetic-camera-lidar-calibration ``` #### 实施步骤说明 虽然这里不建议使用诸如“首先”这样的引导词,但在阐述具体的实施细节时还是有必要按照逻辑顺序依次展开叙述各个要点。下面仅列举几个关键环节而不涉及先后次序: - 使用合适的硬件设施确保每次测量期间保持固定不变的距离间隔; - 对多视角条件下获得的数据样本做预处理去除噪声干扰因素影响最终精度; - 应用优化技术最小化重投影误差从而得到更加精确的结果估计值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值