毫米波雷达与图像融合之CRF-Net

本文介绍了一种将雷达数据与图像数据融合以提高物体检测准确性的深度学习方法。该方法利用雷达数据在恶劣天气条件下的优势来补充图像检测的不足,并通过自动化学习确定最佳融合层级。此外,还提出了BlackIn训练技巧,使网络能在无图像输入的情况下依赖雷达数据学习。
部署运行你感兴趣的模型镜像

paper: A Deep Learning-based Radar and Camera Sensor Fusion Architecture for Object Detection

0 引言

image检测虽好, 但是在恶劣天气面前表现就不行了, 而radar的特性刚好可以弥补这一点。这篇文章的出发点是为了融合radar和image, 从而提升image检测的表现。

1 方法

很多做radar与图像融合的思路都是想办法把radar点投影到图像上,增强图像的特征, 从而得到更好的检测结果。 这篇文章的思路也是类似。

但是毕竟雷达数据与图像数据在性质上差异很大, 怎么能把2者的特征融合起来, 其实很难说的请。 那这篇文章的一个亮点就是它可以让网络自动化地学习到在哪个层级进行融合是对最终结果更有帮助的。

上述的一点是这篇文章最核心的一点。 当然还有一些小的细节也比较重要:
1 对雷达数据的处理。因为作者的雷达数据中没有高度信息,作者把高度都假定为3m;另外雷达数据和图像数据在时序上也不完全匹配,在处理中把不匹配的给过滤掉了。

2 训练的技巧。受Dropout启发, 提出了一种被称为BlackIn的训练方法,具体做法是一定概率同时停用所有图像输入分支的神经元, 目的是为了让网络更依赖radar数据学习。

在这里插入图片描述

2 实验结果

实验细节:
雷达传感器采用了3个大陆 的ARS430 毫米波雷达, 先把3个雷达的处理融合成一个点云数据。

在这里插入图片描述
在这里插入图片描述

3 总结

作为传感器融合, 本文提供了一个可供借鉴的思路。 但总体而言,本文的方法不够solid, 结果也有些差强人意。毕竟加了radar数据, 去对比单image的结果, 然而对结果的提升也不够明显。所以实际意义有限。

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.9

TensorFlow-v2.9

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值