RFNet:基于RGB-D数据的语义分割和意外障碍物检测的实时融合网络

目录

一、Title

二、Journal

三、Background

四、Model

五、Experiments

Experiment 1

Experiment 2

Experiment 3

Experiment 4

论文阅读时间: 2021-4-19 20:14:37

论文代码:https://github.com/AHupuJR/RFNet


一、Title

Real-Time Fusion Network for RGB-D Semantic Segmentation Incorporating Unexpected Obstacle Detection for Road-Driving Images


二、Journal

 IEEE ROBOTICS AND AUTOMATION LETTERS


三、Background

道路的小障碍物检测。检测道路上意外的微小但有潜在危险的障碍物是自主驾驶的一项重要任务,这一课题一直是研究热点。一般来说,这些检测和定位一般障碍物的方法是基于自动驾驶汽车上集成的立体摄像机。


四、Model


五、Experiments

Experiment 1

消融实验

Single RGB方法仅利用RFNet的RGB分支。与SwiftNet相比,唯一的区别是在ResNet-18的每个块之后的SE块。

RGB-D-Stack方法将Depth与RGB进行叠加,以形成RFNet单个分支的4通道输入。该方法的低精度(mIoU为65.20%)证明了深度信息没有被有效地利用。

RGB-D-Fusion(concatenation)与RGB-D-Fusion(element-wise add)的区别是RGB feature map和Depth feature map被拼接到更高维度的feature map,并在1×1卷积后恢复到原始维度。该方法的性能(68.67%)差于RFNet (72.22%)。这是因为在像RFNet这样的紧凑网络中,级联是一种利用深度信息的更低效的方式。

RGB-RGB-Fusion方法与RFNet的区别在于,输入是重复的RGB图像,而不是RGB-D图像,并且在每个AFC模块之后,element-wise add的feature map被除以2。精度(69.37%)比RENet低,与Single RGB方法大致相同,证明了其优点—不仅仅是因为增加了参数。

探索提出的多数据集训练策略的影响。在没有多数据集训练策略的情况下,由于两个数据集的类冲突,RFNet的IoU降低了近20%。所提出的基于多数据集训练策略的RFNet达到72.22%的mIoU,明显优于基线(Single RGB)和其他基于融合的变体,证明设计的注意力互补模块融合方案的有效性。

Experiment 2

ERF-PSPNet和SwiftNet只使用RGB。

Experiment 3

RFNet和SwiftNet在不同深度范围内的平均IoU和小障碍物IoU。

Experiment 4

Experiment 5


论文阅读时间: 2021-4-19 20:14:37

论文代码:https://github.com/AHupuJR/RFNet

评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

3D感知巨头

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值