yolov2的网络架构

 

目录

1.Batch Normalization(批次归一化)

2.High-Resolution Classifier(高分辨率分类器)

3.Darknet-19

4.Convolutional With Anchor Boxes

5.Dimension Clusters(聚类提取先验框)

5.Directed Location Prediction

6.Fine-Grained Features

7.Multi-Scale


  YOLOv2(You Only Look Once version 2)是一种流行的实时目标检测系统,由 Joseph Redmon 和他的同事在 2016 年提出。YOLOv2 在其前身 YOLO 的基础上进行了改进,包括速度和准确性的提升。本文将介绍 YOLOv2 网络架构的关键特点。

1.Batch Normalization(批次归一化)

  V2版本舍弃Dropout,卷积后全部加入Batch Normalization,网络的每一层的输入都做了归一化,收敛相对更容易,并减少过拟合现象。经过Batch Normalization处理后的网络会提升2%的mAP,从现在的角度来看,Batch Normalization已经成网络必备处理。

2.High-Resolution Classifier(高分辨率分类器)

  YOLO-V2具有更大的分辨率,V1训练时用的是224*224,测试时使用448*448,可能导致模型不适应所有任务,V2训练时额外又进行了10次448*448的微调,使用高分辨率分类器后,YOLOv2的mAP提升了约4%。

3.Darknet-19

  YOLOv2 的特征提取部分基于 Darknet-19,这是一个包含 19 个卷积层和 5 个最大池化层的网络,没有全连接层。卷积层中很多层采用1*1的卷积核,节省了很多参数。

4.Convolutional With Anchor Boxes

  YOLOv2使用卷积层和锚框(Anchor Boxes)来预测边界框,代替了YOLOv1中的全连接层。这种方法使得模型能够更有效地预测物体的位置。

5.Dimension Clusters(聚类提取先验框)

YOLOv2通过聚类分析自动确定锚框的尺寸,而不是手动选择,这有助于提高模型对不同尺寸物体的检测能力。流程为:在模型训练之前,提前把训练集的标签值提取出来,通过k-means聚类的方法,聚类出5个类别,结果当作是先验框。最后再进行模型训练。

5.Directed Location Prediction

  YOLOv2改进了边界框的位置预测方法,使用sigmoid函数将偏移量映射到0、1之间,将预测值限制在合理范围内,从而提高了模型的稳定性。

6.Fine-Grained Features

  为了更好地检测小物体,YOLOv2引入了细粒度特征,通过passthrough层将高分辨率的特征图与低分辨率的特征图结合起来。

7.Multi-Scale

  YOLOv2在训练过程中采用多尺度输入,每隔一定批次随机改变输入图像的尺寸,使模型能够适应不同尺寸的图像。

### YOLOv3 网络架构详解 YOLOv3 是一种基于深度学习的目标检测算法,它继承并改进了之前版本的核心思想,在保持实时性能的同时提升了检测精度。以下是对其网络架构的具体介绍: #### 1. 基本组件 DBL YOLOv3 的基本构建模块被称为 **DBL**(DarknetConv2D_BN_Leaky),即卷积层加上批量归一化(Batch Normalization, BN)以及 Leaky ReLU 激活函数[^4]。这一组合使得模型能够更好地训练深层神经网络,并有效缓解梯度消失问题。 ```python def DarknetConv2D_BN_Leaky(x, filters, kernel_size): x = Conv2D(filters=filters, kernel_size=kernel_size, padding='same')(x) x = BatchNormalization()(x) x = LeakyReLU(alpha=0.1)(x) return x ``` #### 2. 主干网络 Darknet-53 YOLOv3 使用了一个名为 **Darknet-53** 的主干网络来提取特征。该网络由多个残差块(Residual Blocks)构成,类似于 ResNet 中的设计思路。这些残差块允许信息在较深的网络层次间更顺畅地流动,从而减少因网络加深而导致的退化问题。 具体而言,Darknet-53 包含如下几个部分: - 初始阶段采用标准的卷积操作; - 后续阶段引入一系列不同规模的残差单元(Res Units)。每个残差单元内部执行两次连续的卷积运算后再与输入数据相加形成最终输出。 #### 3. 特征融合机制 FPN + PANet 为了提高多尺度目标检测能力,YOLOv3 实现了一种自顶向下(Top-down)路径结合横向连接的方法来进行跨层特征融合。这种方法通常被描述为特征金字塔网络(Feature Pyramid Network, FPN)的一部分。 此外,还额外加入了一个底部至上(Bottom-up)通路——PANet 结构用于进一步增强低级语义信息在整个预测过程中所占权重比例。这有助于改善小型物体识别效果不佳的情况。 #### 4. 多尺度预测头 Multi-Scale Prediction Heads 不同于早期版本仅在一个固定大小网格上做出预测的方式,YOLOv3 设计了三个独立但相互关联的不同分辨率下的边界框估计器分别负责处理大中小三种尺寸范围内的实例对象定位任务。每一个这样的头部都接收来自相应级别调整后的特征映射作为输入源材料之一;并通过锚定盒先验知识指导生成候选区域建议列表供后续分类判断环节参考利用。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值