faster rcnn

本文深入解析Faster R-CNN目标检测网络,包括其整体结构、Backbone层的卷积与池化、RPN层的锚点处理、RoI Pooling的作用以及分类和回归过程。训练过程涉及RPN和Fast R-CNN的交替训练,以优化提案生成和目标识别。此外,介绍了损失函数,包括分类损失和回归损失,以及训练时的步骤和细节。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

(参考:一文读懂Faster RCNN

1.faster rcnn整体网络结构

在这里插入图片描述

2.backbone层

在这里插入图片描述
卷积层包含:卷积、池化,激活。

  • 所有的conv层都是:kernel_size=3,pad=1,stride=1
  • 所有的pooling层都是:kernel_size=2,pad=0,stride=2

卷积前,对原图扩边,M*N变为(m+2)*(n+2),经过卷积后变为M*N,不改变原图大小。卷积后,M*N变为(M/2)*(N/2)。

3.rpn层

在这里插入图片描述
上面的那条线,是通过softmax获取前景和背景。

下面那条线,是计算对于anchors的bounding box regression偏移量,以获取精确的proposal。

最后的proposal层负责综合positive anchors和对应bounding box regression偏移量获取proposals,同时剔除太小和超出边界的proposals。

4.roi pooling

在这里插入图片描述
RoI Pooling层则负责收集proposal,并计算出proposal feature maps,送入后续网络。

Rol pooling层有2个输入:

  • 原始的feature maps
  • RPN输出的proposal boxes(大小各不相同)

RoI Pooling layer forward过程:

  • 由于proposal是对应MxN尺度的,所以首先使用spatial_scale参数将其映射回(M/16)x(N/16)大小的feature map尺度;
  • 再将每个proposal对应的feature map区域水平分为 [公式] 的网格;
  • 对网格的每一份都进行max pooling处理。

这样处理后,即使大小不同的proposal输出结果都是 [公式] 固定大小,实现了固定长度输出。

5.classification

在这里插入图片描述
Classification部分利用已经获得的proposal feature maps,通过full connect层与softmax计算每个proposal具体属于那个类别(如人,车,电视等),输出cls_prob概率向量;同时再次利用bounding box regression获得每个proposal的位置偏移量bbox_pred,用于回归更加精确的目标检测框。

从RoI Pooling获取到7x7=49大小的proposal feature maps后,送入后续网络,可以看到做了如下2件事:

  • 通过全连接和softmax对proposals进行分类,这实际上已经是识别的范畴了
  • 再次对proposals进行bounding box regression,获取更高精度的rect box

这里来看看全连接层InnerProduct layers,简单的示意图如下:
在这里插入图片描述
其计算公式如下:
在这里插入图片描述
其中W和bias B都是预先训练好的,即大小是固定的,当然输入X和输出Y也就是固定大小。所以,这也就印证了之前Roi Pooling的必要性。

6.faster rcnn训练过程

在这里插入图片描述
在已经训练好的model(如VGG_CNN_M_1024,VGG,ZF)的基础上继续进行训练。实际中训练过程分为6个步骤:

  • 在已经训练好的model上,训练RPN网络
  • 利用步骤1中训练好的RPN网络,收集proposals
  • 第一次训练Fast RCNN网络
  • 第二训练RPN网络
  • 再次利用步骤4中训练好的RPN网络,收集proposals
  • 第二次训练Fast RCNN网络

可以看到训练过程类似于一种“迭代”的过程,不过只循环了2次。至于只循环了2次的原因是应为作者提到:“A similar alternating training can be run for more iterations, but we have observed negligible improvements”,即循环更多次没有提升了。

RPN训练时,loss包含:

  • cls loss,即rpn_cls_loss层计算的softmax loss,用于分类anchors为positive与negative的网络训练
  • reg loss,即rpn_loss_bbox层计算的soomth L1 loss,用于bounding box regression网络训练。

fast rcnn训练时:

  • 将提取的proposals作为rois传入网络
  • 计算bbox_inside_weights+bbox_outside_weights,作用与RPN一样,传入soomth_L1_loss layer
### Faster R-CNN 算法介绍 Faster R-CNN 是一种基于深度学习的目标检测算法,由 Ross Girshick 提出,是对 Fast R-CNN 的重要改进[^2]。该算法的核心创新在于引入了区域生成网络 (Region Proposal Network, RPN),从而实现了端到端的训练和推理过程。 #### 区域生成网络 (RPN) RPN 是 Faster R-CNN 中的关键组件之一,其作用是从输入图像中生成高质量的候选区域 (region proposals)[^2]。相比之前的 Fast R-CNN 和传统的方法(如 Selective Search),RPN 显著减少了候选区域生成的时间开销,并将其无缝集成到了整个目标检测框架之中。通过共享卷积特征图,RPN 能够高效地完成候选框的预测任务。 #### 主要组成部分 Faster R-CNN 可分为以下几个主要模块: 1. **卷积层**: 使用预训练好的 CNN 模型(如 VGG-16 或 ResNet)提取图像的特征表示。 2. **RPN**: 利用上述特征图生成候选区域。 3. **RoI Pooling 层**: 将不同大小的候选区域映射为固定尺寸的特征向量。 4. **全连接层与分类器**: 对每个候选区域进行类别预测并调整边界框的位置参数。 这些部分共同协作,在 GPU 上达到了约 5 fps 的检测速度,同时保持较高的准确性。 ### 实现方式 以下是 Faster R-CNN 的基本实现流程: ```python import torch from torchvision.models.detection import faster_rcnn def create_faster_rcnn_model(num_classes): model = faster_rcnn.fasterrcnn_resnet50_fpn(pretrained=True) in_features = model.roi_heads.box_predictor.cls_score.in_features model.roi_heads.box_predictor = faster_rcnn.FastRCNNPredictor(in_features, num_classes) return model # 创建模型实例 num_classes = 91 # COCO 数据集中的类别数加背景类 model = create_faster_rcnn_model(num_classes) # 定义优化器和其他超参... optimizer = torch.optim.SGD(model.parameters(), lr=0.005, momentum=0.9, weight_decay=0.0005) ``` 此代码片段展示了如何利用 PyTorch 构建一个 Faster R-CNN 检测模型,并对其进行自定义修改以适应特定数据集的需求。 ### 应用场景 由于其出色的性能表现,Faster R-CNN 广泛应用于多种实际领域,包括但不限于自动驾驶汽车中的障碍物识别、医学影像分析中的病灶定位以及无人机监控下的物体追踪等任务[^3]。例如,在交通管理方面,它可以快速准确地标记车辆行人信息;而在安防行业,则可用于视频流内的异常行为监测。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值