BEV下的Radar-Camera跨数据集融合实验研究

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

>>点击进入→自动驾驶之心【多传感器融合】技术交流群

论文作者 | 汽车人

编辑 | 自动驾驶之心

原标题:Cross-Dataset Experimental Study of Radar-Camera Fusion in Bird’s-Eye View
论文链接:https://arxiv.org/pdf/2309.15465.pdf
作者单位:Opel Automobile GmbH Rheinland-Pfalzische Technische Universitat Kaiserslautern-Landau German Research Center for Artificial Intelligence

bc25fc2d765199c6d6510aa63be5cedb.png

论文思路:

通过利用互补的传感器信息,毫米波雷达和camera融合系统有潜力为先进的驾驶员辅助系统和自动驾驶功能提供高度稳健和可靠的感知系统。基于相机的目标检测的最新进展提供了新的毫米波雷达相机与鸟瞰特征图融合的可能性。本文提出了一种新颖且灵活的融合网络,并评估其在两个数据集上的性能:nuScenes 和 View-of-Delft。本文的实验表明,虽然camera分支需要大量且多样化的训练数据,但毫米波雷达分支从高性能毫米波雷达中受益更多。使用迁移学习,本文提高了camera在较小数据集上的性能。本文的结果进一步表明,毫米波雷达-camera融合方法显着优于仅camera和仅毫米波雷达基线。

网络设计:

最近3D目标检测的一个趋势是将图像的特征转换成一种常见的鸟瞰图(BEV)表示,它提供了一种灵活的融合架构,可以在多个camera之间进行融合,也可以使用测距传感器进行融合。在这项工作中,本文扩展了原本用于激光camera融合的BEVFusion方法来进行毫米波雷达camera融合。本文用选定的毫米波雷达数据集训练和评估了本文提出的融合方法。在几个实验中,本文讨论了每个数据集的优缺点。最后,本文应用迁移来实现进一步的改进。

6455328e99b79055c61acf937c90dcab.png

图1基于BEVFusion的BEV毫米波雷达-camera融合流程图。在生成的camera图像中,本文包括投影毫米波雷达探测和 ground truth 边界框。

本文遵循BEVFusion的融合架构。图1展示了本文在BEV中进行毫米波雷达-camera融合的网络概况。请注意,融合发生时,camera和毫米波雷达特征在BEV连接。下面,本文将为每个区块提供进一步的细节。

A. Camera Encoder and Camera-to-BEV View Transform

camera编码器和视图变换采用了[15]的思想,它是一种灵活的框架,可以提取任意camera外部和内部参数的图像BEV特征。首先,使用tiny-Swin Transformer网络从每个图像中提取特征。接下来,本文利用[14]的 Lift 和 Splat 步骤将图像的特征转换到BEV平面。为此,密集深度预测之后是基于规则的block,其中的特征被转换成伪点云,并进行栅格化并累积到BEV网格中。

B. Radar Pillar Feature Encoder

此块的目的是将毫米波雷达点云编码到与图像BEV特征相同的网格上的BEV特征中。为此,本文使用了[16]的 pillar 特征编码技术,将点云光栅化为无限高的体素,即所谓的pillar。

C. BEV Encoder

与[5]相似,毫米波雷达和camera的BEV特征是通过级联融合的。融合的特征然后由联合卷积BEV编码器处理,使网络能够考虑空间错位和使用不同模态之间的协同效应。

D. Detection Head

本文使用CenterPoint检测头来预测每个类的目标中心的heatmaps。进一步的回归头预测物体的尺寸、旋转和高度,以及nuScenes的速度和类属性。而 heatmaps 采用 Gaussian focal loss 进行训练,其余的检测头采用 L1 loss 进行训练。

实验结果:

ecae16e81f650e5dcad3584223cd5fa4.png c2d1bfe8d0911ef8fd004cbf053860ec.png d087dd995a240bf8fcd53b98c1224260.png

引用:

Stäcker, L., Heidenreich, P., Rambach, J., & Stricker, D. (2023). Cross-Dataset Experimental Study of Radar-Camera Fusion in Bird's-Eye View. ArXiv. /abs/2309.15465

① 全网独家视频课程

BEV感知、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署协同感知语义分割、自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

d44c54da76d4ab1f906365fde72b72fe.png 视频官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

近2000人的交流社区,涉及30+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(2D检测、分割、2D/3D车道线、BEV感知、3D目标检测、Occupancy、多传感器融合、多传感器标定、目标跟踪、光流估计)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

351463008121ab504909aca7fc9deb2c.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多模态感知、Occupancy、多传感器融合、transformer、大模型、点云处理、端到端自动驾驶、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向。扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

4b816f51ca6fa17f47186dc39e27eb60.jpeg

④【自动驾驶之心】平台矩阵,欢迎联系我们!

560e1ab065b103624884c862efb23db4.jpeg

MPU6050是一款广泛应用在惯性测量单元(IMU)中的微型传感器,由InvenSense公司生产。它集成了三轴加速度计和三轴陀螺仪,能够检测设备在三维空间中的线性加速度和角速度,进而计算出物体的姿态、运动和方向。在本项目中,MPU6050被用来获取设备的YAW、PITCH、ROLL这三个关键的姿态角,这些数据将通过OLED显示屏进行实时显示。 1. **MPU6050工作原理**: MPU6050内部包含两个主要传感器:加速度计用于测量重力加速度,提供X、Y、Z三个轴的线性加速度信息;陀螺仪则测量绕三个轴的旋转速率。通过融合这两个传感器的数据,可以计算出设备的动态运动状态。 2. **姿态角的定义**: - **YAW(偏航角)**:表示设备相对于一个参考方向的旋转角度,通常以水平面为基准。 - **PITCH(俯仰角)**:是设备沿垂直轴相对于水平面的倾斜角度,向上为正,向下为负。 - **ROLL(翻滚角)**:是设备围绕前向轴的旋转角度,向右为正,向左为负。 3. **数据处理与姿态解算**: 为了从原始的加速度和角速度数据中获取准确的姿态角,需要应用卡尔曼滤波、互补滤波或者Madgwick算法等高级数据融合方法。这些算法可以有效地消除噪声,提高姿态估计的稳定性和精度。 4. **OLED显示屏**: OLED(有机发光二极管)显示器是一种自发光技术,具有高对比度、快速响应时间以及广视角的优点。在该项目中,OLED用于实时显示YAW、PITCH、ROLL角,为用户提供了直观的视觉反馈。 5. **硬件连接与编程**: 实现这一功能需要将MPU6050通过I2C或SPI接口连接到微控制器(如Arduino、Raspberry Pi等)。编写相应的固件程序来读取传感器数据,并将其转换为姿态角,然后将结果显示在OLED屏幕上。 6. **软件实现**: 在编程过程中,通常会用到相关的库文件,如Arduino IDE中的Wire库来处理I2C通信,Adafruit的MPU6050库来与传感器交互,以及Adafruit_GFX和Adafruit_SSD1306库来驱动OLED屏幕。 7. **调试与优化**: 项目实施过程中可能遇到的问题包括传感器漂移、数据不准确等,可以通过调整滤波器参数、校准传感器以及优化算法来改善。 综上,"MPU6050(OLED显示姿态角)"项目涉及了传感器技术、微控制器编程、数据融合算法、嵌入式显示等多个领域的知识,对于学习和实践物联网、机器人、无人机等领域的开发者来说,是一个很好的动手实践项目。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值