R-FCN

R-FCN是一种区域全卷积网络,用于目标检测,相较于Faster R-CNN更快且拥有更深的共享卷积层。它在Resnet-101基础上改造,去除平均池化层和全连接层,采用位置敏感得分映射进行分类和回归。R-FCN的贡献在于其二阶段检测框架,提高了速度并引入了位置不敏感的分类网络。流程包括预处理图像,通过预训练的ResNet-101获取特征,再进行RPN、位置敏感RoI池化,最终通过softmax得到类别概率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

伪代码
feature maps=process(image)
ROIs=region_proposal(feature maps)
score_maps=compute_score_map(feature_maps)
for ROI in ROIs
V=region_roi_pool(score_maps,ROI)
class_scores,box=average(V)
class_probailities=softmax(class_scores)

基于Resnet-101,将最后的平均池化层和1000-class的全连接层去除。在ImageNet上进行预训练,resnet-101最后一层卷积层是2048维,接一个11的1024维的卷积层进行降维,然后利用一个k^2(c+1)个通道的卷积层生成分数映射。
主要贡献:

  1. 提出了position-sensitive score maps来解决目标检测的位置敏感性问题
    
  2. 区域为基础的,全卷积网络的二阶段目标检测框架
  3. 比Faster R-CNN快2.5-20倍

在这里插入图片描述

相同点:都是由全卷积网络和RoI-wise subnetwork组成的,输出结果维相应的类别和对应的box

不同点:与Faster R-CNN相比,R-FCN具有更深的共享卷积网络层,这样可以获得更加抽象的特征,同时它没有RoI-wise subnetwork。

分类无论目标在图像的什么位置都不影响分类,因此分类网络对位置不敏感,而检测一旦物体位置发生改变都会影响检测结果,所以检测网络对位置敏感。

F-RCN过程:

首先选择一张需要处理的图片。并对该图片进行相应的预

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值