Deep Residual Learning for Image Recognition(ResNet)残差网络解读

ResNet是2015年提出的深度残差学习框架,解决了深层网络训练的难题,避免了准确率随网络深度增加而下降的问题。通过计算层间残差并加回输入,ResNet能有效训练超过100层的网络,同时保持或提高性能。在ImageNet等任务上表现出色,荣获多个比赛冠军。

Kaiming 的ResNet在2015年横扫各大视觉主流比赛榜单,对工业界和学术界都产生了巨大而深远的影响,论文拿下了CVPR2016的best paper award。首先来看看ResNet的威力:


不仅拿了第一,还超过第二一大截。我们就来看看ResNet的神奇之处。


Is learning better networks as easy as stacking more layers

近些年来,有句口号叫“We need go deeper”,所以问题来了,“Is learning better networks as easy as stacking more layers?” ,当然不是,就单纯的go deeper并没有用,因为更深的网络意味着更多的参数,更大的计算量,需要更多的计算资源,还需要防止过拟合的风险,网络越深,越难训练。除此之外,有研究发现,随着网络深度的增加,准确率会趋于饱和,并且快快速下降,可能很多人会以为这是onverfitting,模型太复杂了,但是出人意料的是并不是这样,因为加深某些模型反而会增加训练误差!如图是一个典型的例子:


Deep Residual Learning for Image Recognition》由何恺明、张祥雨、任少卿、孙剑所著,是2016年CVPR最佳论文。该论文提出的ResNet(深度残差网络)通过残差模块解决深层网络的退化问题,大大提升了神经网络深度,使各类计算机视觉任务能从深度模型提取出的特征中获益。ResNet还获得了2015年ImageNet图像分类、定位、目标检测竞赛冠军,MS COCO目标检测、图像分割冠军,并在ImageNet图像分类性能上超过人类水平[^1]。 残差学习框架是ResNet的核心思想,它能有效缓解深度网络的退化问题,使得网络层数可以进一步增加,而不会导致梯度消失或模型性能下降[^2]。与早期训练多层感知机添加线性层、部分中间层连接辅助分类器解决梯度消失和爆炸问题不同,也和“highway networks”使用含参数的shortcut搭配门函数不同,ResNet的残差连接不含参数,且identity shortcut并非封闭,所有信息可直接传入以学习额外的残差函数,同时随着网络深度增加精确度也会增加[^4]。 在ImageNet上的实现遵循了AlexNet和VGGNet中的一些操作。图像的短边会随机resize到[256,480]的范围(长边等比例缩放),接着从resize后的图像或其水平翻转图像中随机裁剪出224×224大小的图像,并将每个像素减去该坐标上所有像素值的平均。每次卷积之后、激活函数之前应用BN。按照特定论文初始化权重,plain和residual网络的训练都是train from scratch。使用MBGD,mini - batch size为256,初始学习率设为0.1,当loss不再明显下降时,学习率除以10。模型共训练60×10⁴次迭代,weight decay设为0.0001,momentum参数设为0.9,且不使用dropout[^3]。 以下是一个简单的使用PyTorch实现ResNet残差块的代码示例: ```python import torch import torch.nn as nn class BasicBlock(nn.Module): expansion = 1 def __init__(self, in_channels, out_channels, stride=1): super(BasicBlock, self).__init__() self.conv1 = nn.Conv2d(in_channels, out_channels, kernel_size=3, stride=stride, padding=1, bias=False) self.bn1 = nn.BatchNorm2d(out_channels) self.relu = nn.ReLU(inplace=True) self.conv2 = nn.Conv2d(out_channels, out_channels, kernel_size=3, stride=1, padding=1, bias=False) self.bn2 = nn.BatchNorm2d(out_channels) self.shortcut = nn.Sequential() if stride != 1 or in_channels != self.expansion * out_channels: self.shortcut = nn.Sequential( nn.Conv2d(in_channels, self.expansion * out_channels, kernel_size=1, stride=stride, bias=False), nn.BatchNorm2d(self.expansion * out_channels) ) def forward(self, x): out = self.relu(self.bn1(self.conv1(x))) out = self.bn2(self.conv2(out)) out += self.shortcut(x) out = self.relu(out) return out ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值