ResNet

探讨ResNet如何通过残差结构解决深度学习中网络加深导致的退化问题,介绍其核心思想与网络结构,解释残差模块如何避免梯度消失。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、综述

ResNet 最根本的动机是所谓的退化问题,即当模型的层次加深时,错误率却提高了。
在这里插入图片描述
一般认为,随着模型的深度加深,学习能力增强,但上图表明:常规的网络堆叠在网络很深的时候,效果却越来越差。这其中的原因之一是网络越深,梯度消失的现象就越来越明显。
于是,作者提出了一种 Residual 残差结构
在这里插入图片描述
即通过在输出和输入之间引入一个 shortcut connection,而不是简单的堆叠网络,这样就解决了网络由于很深出现梯度消失的问题,从而可以把网络做的很深。ResNet 其中一个网络结构如下图所示:
在这里插入图片描述
上图中,最下面的是 VGG-19 网络,中间的是 Plain Network,最上面的是基于 Plain Network 构建的 ResNet 网络。其中 Plain Network 遵循两个设计规则:

  1. 对于相同输出特征图尺寸,卷积层有相同个数的滤波器
  2. 如果特征图尺寸缩小一半,滤波器个数加倍以保持每个层的计算复杂度。通过步长为 2 的卷积来进行降采样。一共 34 个权重层。

ResNet 网络就是在传统的顺序堆叠网络上增加了 shortcut connection,可以像下图这样理解:
在这里插入图片描述

二、核心

首先来看看论文中的 ResNet 的全貌
在这里插入图片描述
以上图中 50-layer 为例,在进入残差模块之前的结构为:

  1. 使用 7 x 7 的 64 个卷积核,stride=2
  2. 经过 Batch Normalization 层
  3. 经过 Relu 层
  4. 经过池化层 3 x 3 maxpooling,stride=2

接下来会经过四个残差模块,以第一个为例,如下图所示:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值