Resnet 学习笔记

ResNet通过引入残差学习解决了深度CNN网络的退化问题,允许网络层数加深而不牺牲性能。何凯明团队在2015年的研究中提出,深度残差网络在ImageNet上取得冠军,残差学习通过学习残差函数,使得网络更容易优化,避免了梯度消失。ResNet网络结构通过短路机制和恒等映射确保信息无损传递,从而在深度增加时保持性能稳定。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、引言

2015年,MSRA(微软亚洲研究院)何凯明团队的深度残差网络(Deep Residual Network)在Imagenet上取得冠军,可以说深度残差网络的提出是CNN图像史上的里程碑事件,Resnet的作者何凯明也因此获得了CVPR2016最佳论文奖。Resnet为什么这么强大,备受人们的青睐呢?因为它解决了深度CNN网络模型训练难的问题。我们知道2014年的VGG才19层,而15年的Resnet多达152层,这在网络深度上完全不是一个层次,我们可能会理所当然的认为Resnet是靠深度取胜的,但是事实并不完全是这样,除了深度,Resnet还有它自己架构上的小trick,这才使得网络的深度 发挥出作用,而这个trick就是残差学习(Residual learning)

论文地址:https://arxiv.org/pdf/1512.03385v1.pdf

2、Resnet提出的原因

对于传统的深度学习网络,我们普遍认为网络越深、参数越多,网络非线性的表达能力就越强,学习到的东西也就越多。凭借这一规则,经典的CNN网络从LeNet-5(5层)、AlexNet(8层),发展到VGGNet(16-19层),再到后来的GoogleNet(22层)。VGG网络试着探寻了一下深度学习网络究竟可以深到何种程度,依然能继续提高分类的准确率,它的实验结果告诉我们,在某种程度上&#

### ResNet50模型学习笔记概述 ResNet50是一种深度残差网络,属于ResNet系列的一部分。该模型通过引入残差块解决了深层神经网络中的梯度消失和退化问题[^1]。 #### 模型架构特点 ResNet50采用了特殊的Bottleneck结构作为其基本构建单元,这种设计使得即使在网络非常深的情况下也能有效传播梯度并保持良好的性能表现[^2]。具体来说: - 输入图像尺寸通常设定为\(224 \times 224\)像素,并且具有三个颜色通道。 - 经过一系列卷积操作以及多个阶段的Bottleneck模块处理之后,最终特征图会被压缩到\((2048, 1, 1)\)的形式。 - 接下来是一个全连接层用于分类任务,它将上述高维向量映射至指定数量的目标类别上。 #### 关键技术组件 为了提高训练效率与准确性,ResNet50还集成了如下重要机制: - **Batch Normalization (BN)**:应用于每一层之前来标准化激活值分布,从而加快收敛速度并且有助于缓解内部协变量偏移现象[^5]。 - **跳跃连接(Skip Connections)**:允许信息绕过多层传递,在一定程度上克服了传统CNN难以优化极深层次的问题。 ```python import torch.nn as nn class Bottleneck(nn.Module): expansion = 4 def __init__(self, inplanes, planes, stride=1, downsample=None): super(Bottleneck, self).__init__() self.conv1 = nn.Conv2d(inplanes, planes, kernel_size=1, bias=False) self.bn1 = nn.BatchNorm2d(planes) self.conv2 = nn.Conv2d(planes, planes, kernel_size=3, stride=stride, padding=1, bias=False) self.bn2 = nn.BatchNorm2d(planes) self.conv3 = nn.Conv2d(planes, planes * self.expansion, kernel_size=1, bias=False) self.bn3 = nn.BatchNorm2d(planes * self.expansion) self.relu = nn.ReLU(inplace=True) self.downsample = downsample self.stride = stride def forward(self, x): residual = x out = self.conv1(x) out = self.bn1(out) out = self.relu(out) out = self.conv2(out) out = self.bn2(out) out = self.relu(out) out = self.conv3(out) out = self.bn3(out) if self.downsample is not None: residual = self.downsample(x) out += residual out = self.relu(out) return out ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值