ResNet 学习笔记

ResNet是为解决深度神经网络中梯度消失和退化问题提出的,通过残差函数f(x)=h(x)-x进行优化,使得网络能更易训练且性能提升。Residual Block是其实现关键,包含short connection,当网络最优时,Block表现为恒等映射。ResNet网络结构由多个Residual Block堆叠而成,适用于图像识别等任务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

ResNet


出自论文Deep Residual Learning for Image Recognition


1.提出背景


1. 梯度爆炸/消失问题(这篇博客讲的很好)
2. 退化问题(随着网络深度增加,准确率达到饱和,然后迅速下降)
3. 为了使网络能够有更深的深度

2.什么是残差函数?


我们使用一般网络拟合的是h(x),使得输入x,h(x)能够得到正确的解来帮助我们预测分类
而在ResNet中引入了残差函数f(x)=h(x)-x(即目标值与输入值的偏差),通过训练拟合f(x),进而由f(x)+x得到h(x)

使用残差函数的好处有哪些呢?我的理解有以下几点(仅个人理解,如有错误请指出~)

  • 解决了退化问题同时很好的避免(或者只能说是减少?)了梯度爆炸/消失。ResNet的出发点并不是为了解决梯度爆炸/消失问题,达到这种效果纯粹是无意之举,关于原因的话,我阅读了大量的博客和解析,他们用公式的解释方法我并不是很理解。
  • 首先为什么解决了退化问题。当网络达到一定深度,若网络已经最优化,那
### ResNet50模型学习笔记概述 ResNet50是一种深度残差网络,属于ResNet系列的一部分。该模型通过引入残差块解决了深层神经网络中的梯度消失和退化问题[^1]。 #### 模型架构特点 ResNet50采用了特殊的Bottleneck结构作为其基本构建单元,这种设计使得即使在网络非常深的情况下也能有效传播梯度并保持良好的性能表现[^2]。具体来说: - 输入图像尺寸通常设定为\(224 \times 224\)像素,并且具有三个颜色通道。 - 经过一系列卷积操作以及多个阶段的Bottleneck模块处理之后,最终特征图会被压缩到\((2048, 1, 1)\)的形式。 - 接下来是一个全连接层用于分类任务,它将上述高维向量映射至指定数量的目标类别上。 #### 关键技术组件 为了提高训练效率与准确性,ResNet50还集成了如下重要机制: - **Batch Normalization (BN)**:应用于每一层之前来标准化激活值分布,从而加快收敛速度并且有助于缓解内部协变量偏移现象[^5]。 - **跳跃连接(Skip Connections)**:允许信息绕过多层传递,在一定程度上克服了传统CNN难以优化极深层次的问题。 ```python import torch.nn as nn class Bottleneck(nn.Module): expansion = 4 def __init__(self, inplanes, planes, stride=1, downsample=None): super(Bottleneck, self).__init__() self.conv1 = nn.Conv2d(inplanes, planes, kernel_size=1, bias=False) self.bn1 = nn.BatchNorm2d(planes) self.conv2 = nn.Conv2d(planes, planes, kernel_size=3, stride=stride, padding=1, bias=False) self.bn2 = nn.BatchNorm2d(planes) self.conv3 = nn.Conv2d(planes, planes * self.expansion, kernel_size=1, bias=False) self.bn3 = nn.BatchNorm2d(planes * self.expansion) self.relu = nn.ReLU(inplace=True) self.downsample = downsample self.stride = stride def forward(self, x): residual = x out = self.conv1(x) out = self.bn1(out) out = self.relu(out) out = self.conv2(out) out = self.bn2(out) out = self.relu(out) out = self.conv3(out) out = self.bn3(out) if self.downsample is not None: residual = self.downsample(x) out += residual out = self.relu(out) return out ```
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值