毫米波雷达视觉融合3D目标检测论文综述(二)

文章介绍了三种3D目标检测方法,包括RCBEV的Radar和Vision融合网络,解决了将雷达点投影到图像平面导致的信息丢失问题;MVFusion通过语义对齐和雷达编码增强融合,以及Cross-Attention模块;CRN利用雷达深度信息改进视角转换并应用DeformableTransformer,提高定位准确性。这些方法都致力于优化雷达与视觉数据的融合,提升3D感知性能。

接上篇文章:毫米波雷达视觉融合3D目标检测论文综述一

paper 发表地方 融合方法 代码链接 backbone NDS mAP
RCBEV4d TIV2023 特征级融合 - Swin-T 0.497 0.381
MVFusion ICRA2023 特征级融合 - R101 0.455 0.380
CRN ICCV2023 特征级融合 pytorch R50 0.560 0.490

上篇主要介绍的基于关联方法的图像和雷达融合的3d目标检测算法,这里介绍剩下的自适应融合的方法。
一、RCBEV: Bridging the View Disparity Between Radar and Camera Features for Multi-Modal Fusion 3D Object Detection
在这里插入图片描述
出发点: 之前的基于特征融合的方法大都将雷达点投影到图像平面,之后进行特征提取后融合,但是这种将3D空间的雷达点投影到图像平面会导致感知信息的丢失,作者针对这个问题设计了一个针对3D目标检测的Radar和Vision融合网络。

文章主要分为四部分: 雷达点处理,图像处理,融合模块以及分类头的设计
在这里插入图片描述

  • 雷达点处理:如上图所示,首先将 t − n t-n tn时刻的雷达帧通过变换矩阵转换到 t t t时刻,之后利用过滤核过滤掉一些雷达噪声点,接着利用点云特征提取网络(VoxelNet或者Pointpillars)来提取BEV特征,考虑到不同时刻物体的偏差,作者利用时序模型来融合不同时刻的BEV特征。具体公式如下:
    在这里插入图片描述
    在这里插入图片描述

  • 图像处理:如上图所示,首先利用Backbone和FPN提取图像特征,之后利用LSS转换到BEV空间形成BEV特征
    在这里插入图片描述

  • 融合模块:如上图所示,分别对 B E V r a d a r BEV_{radar}

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值