自动驾驶之心:毫米波雷达-视觉融合感知方法(前融合/特征级融合/数据级融合)

毫米波雷达-视觉融合感知方法(前融合/特征级融合/数据级融合)

分享一个自动驾驶之心的报告:毫米波雷达与视觉融合目标检测。

作者主页为:https://www.zhihu.com/people/nacayu

1. 毫米波雷达与相机融合检测背景

毫米波雷达显著特性有:可以测量目标的位置、速度、角度,此外毫米波雷达能够全天候全天时工作,受天气影响较小。

在这里插入图片描述
下面是毫米波雷达工作原理,原始的毫米波雷达数据是RDA数据块,分别表示距离、多普勒和角度,但在实际使用中往往得到的是点云数据。

在这里插入图片描述
下面是毫米波雷达和激光雷达的对比:

  • 毫米波雷达得到的点云是很稀疏的,同时是不均匀的;而激光雷达是稠密且均匀的;
  • 同时激光雷达和毫米波雷达发射方式也不同,激光雷达是射线发射,毫米波雷达是锥形发射;
  • 数据格式也完全不同,毫米波除了位置信息,还有RCS和速度信息,而激光雷达只能得到物体形状信息;

在这里插入图片描述

2. 主流融合方法

首先介绍多传感器融合的必要性,以及由此而引入的问题。

在这里插入图片描述
下面是不同融合方式的优劣势对比及代表工作,RadSegNet是一个用于做3D检测的代表性工作。
在这里插入图片描述
这里会重点介绍下面三个红字标出的方法。

在这里插入图片描述
首先是CRFNet,这里也给出了复现代码。
在这里插入图片描述
第二个就是CenterFusion,很经典的一个融合工作。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
第3个工作是CRAFT。

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
下面是特征融合的总结:

  • 如何选择适合Radar的特征表示形式,point表征,voxel表征还是proposal表征等;
  • 激光雷达中的特征提取方法能否迁移到Radar中,二者都可以看作是点云数据;
  • 如何高效的关联两个模态的数据;
  • Radar表征能力不断加强;
  • 寻求多阶段的融合方法;
  • 引入先验信息;

在这里插入图片描述
下面是已有的Radar数据集:

在这里插入图片描述


3. 其它领域应用简介

在这里插入图片描述

4. 未来机遇与挑战

4D毫米波雷达的兴起未来会促进相机与毫米波雷达的感知能力。之前在两个不同的4D毫米波雷达数据集上进行测试发现,一个数据集中平均每帧4D毫米波雷达会包含330个3D点,一个数据集中平均每帧会返回2700个3D点,点数远远多于传统的3D毫米波雷达,且同时还提供高度信息,无疑会大幅提高二者融合感知能力。

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

### 深度相机彩色相机对齐方法 (D2C) #### 理论基础 为了实现深度相机彩色相机之间的有效对齐,需要考虑两者的几何关系和时间同步。校准过程主要包括内外参数估计、畸变矫正以及最终的空间变换矩阵求解[^1]。 #### 实现步骤 ##### 数据收集 获取一组由同一场景下的深度图像和对应的RGB图像组成的配对样本集。这些样本应尽可能覆盖整个视场范围,并包含不同距离和平面角度的对象实例。 ##### 内外参标定 利用标准棋盘格或其他已知模式作为参照物来执行单独的内部参数(焦距f_x,f_y; 主点坐标c_x,c_y)和外部旋转平移向量(R,t) 的估算工作。这一步骤可以借助OpenCV库中的`cv::calibrateCamera()`函数完成[^3]。 ```cpp // C++ code snippet using OpenCV for camera calibration std::vector<std::vector<cv::Point3f>> objectPoints; std::vector<std::vector<cv::Point2f>> imagePoints; bool success = cv::calibrateCamera(objectPoints, imagePoints, imageSize, K, distCoeffs, rvecs, tvecs); if (!success){ std::cerr << "Calibration failed." << std::endl; } ``` ##### 畸变修正 根据上一步得到的结果调整原始图片以消除镜头引起的失真效应。具体来说就是应用反向映射算法将理想位置上的像素值重新分配给实际观测到的位置。 ##### 变换矩阵计算 当两个摄像机都经过充分校正之后,则可通过共同观察某些特征点的方式建立两者间的刚体转换模型——即寻找能够使一对对应点之间误差最小化的R|t组合。该操作同样可以在OpenCV框架下轻松达成: ```python import numpy as np import cv2 # Assuming we have matched points from both cameras stored in pts_depth and pts_rgb lists. E, mask = cv2.findEssentialMat(pts_depth, pts_rgb, focal=K[0][0], pp=(K[0][2], K[1][2])) _, R, t, _ = cv2.recoverPose(E, pts_depth, pts_rgb, focal=K[0][0], pp=(K[0][2], K[1][2])) transformation_matrix = np.hstack((R, t)) print(f"Transformation matrix:\n{transformation_matrix}") ``` 上述代码片段展示了如何使用Python版本的OpenCV来进行本质矩阵E及其分解后的旋转矩阵R和平移矢量t的计算。最后构建了一个4×4大小的整体变换阵列用于后续处理阶段。 #### 应用案例 一旦完成了以上所有准备工作,在实际部署过程中就可以依靠预先训练好的神经网络或者其他机器学习工具辅助完成更复杂的任务,比如三维重建或是增强现实效果渲染等[^2]。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值