数学原理解释resnet缓解梯度弥散问题

本文探讨深度学习中梯度弥散问题的根源及解决方案,重点介绍残差网络(ResNet)如何通过特殊结构缓解梯度消失,同时讨论激活函数如ReLU在梯度传播中的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

本文是一位职场小白在百度实习面试被虐,发现基本的大公司都会问到网络的数学原理解释,之后学习很多的博客。对残差网络的一些深入理解,开始写人生的第一篇博客,如有差错,还请各位大佬多多指正,多多交流

产生梯度弥散的原因

深度学习的本质是找到一个复杂的函数来拟合输入数据和输出数据之前的转换关系。简单的说:y = f(x),这里的x和y可能是向量,也可能是矩阵。复杂的网络就是函数f。

在深度学习中常见预处理:去均值,归一化。这样做的原因是能够使输入的数据之间方差更小,通俗的将就是每一次输入的数据都比较一致,模型就能够更快的收敛。也就是更快的学习到x——》y之间的转换关系f。达到类似效果的有初始化(xavier,何凯明),batch_normalization。

讲了以上怎么多关键引出的就是神经网络中流动的数据大多是均值为0,方差为1的数据分布。而神经网路的学习过程就是进行链式求导,这个不熟悉的话,想必大家都知道高中学习的符合函数求导吧 。原理是一样的,这样多个0-1之间的数字相乘就会越乘越小,导致梯度->0

残差结构

在上面的段落我们讲过,梯度弥散本质的原因是多个0-1之间小数相乘的结果。很简单的思维就是我们其中的一些数字变大,从0.1增大到0.9,类似于这种的操作。不就可以缓解了吗?

是的,残差网络就是怎么简单的原因,下面通过一个例子来更清晰的了解:

此时我们对权重w2进行求导梯度值为 y1+x,相比不加残差结构在梯度值上多加了一个x,达到了0.1到0.9的变化,因此在一定程度上缓解了梯度弥散的问题
此时我们对权重w2进行求导梯度值为 y1+x,相比不加残差结构在梯度值上多加了一个x,达到了0.1到0.9的变化,因此在一定程度上缓解了梯度弥散的问题

至于为什么不直接从0.1增大到9,个人觉得是数据的分布更离散,模型学习的会更困难, 收敛速度更慢。

激活函数缓解梯度弥散

在神经网络初期的时候使用的激活函数都是sigmoid激活,而sigmoid的梯度值在[4,+∞],[-∞,-4这两个区间趋近与0。所以后期有更换relu激活函数来缓解这个问题,我觉得目前用这个来回答不是很合理,上文也提起过,后来提出的BN,xavier初始化等方法都会将输出的数据分布调整为正太分布,而sigmoid 在0之间的梯度值接近线性函数的梯度值

总结

所以综上所述,对于梯度弥散的问题,残差结构是最直接的解决办法,而激活函数要针对于具体的数据分布

### ResNet 解决梯度消失问题的原理 ResNet通过引入跳跃连接(skip connections)来解决深层网络中的梯度消失问题。这种设计使得反向传播过程中的梯度可以直接传递到前面的层,而不需要经过多个非线性变换。 #### 跳跃连接的作用 传统的前馈神经网络在层数增加时容易遇到梯度消失的问题,这会阻碍误差信号有效地传回早期层[^1]。而在ResNet架构中,输入不仅被送入当前层处理,还直接加到了后续几层之后的结果上: \[ y = F(x, W_i) + x \] 这里 \(F\) 表示若干卷积操作后的输出,\(x\) 则代表原始输入。这样的机制允许信息绕过某些层次流动,形成所谓的“捷径”,从而减少了由于多层叠加造成的梯度衰减现象[^2]。 #### 批量标准化的影响 除了跳跃连接外,批量标准化(Batch Normalization, BN)也在很大程度上帮助解决了梯度消失问题。BN通过对每一批次的数据做规范化处理,稳定了各层之间的分布变化,进而提高了训练稳定性并加速收敛速度。 ```python import torch.nn as nn class BasicBlock(nn.Module): expansion = 1 def __init__(self, in_planes, planes, stride=1): super(BasicBlock, self).__init__() self.conv1 = nn.Conv2d(in_planes, planes, kernel_size=3, stride=stride, padding=1, bias=False) self.bn1 = nn.BatchNorm2d(planes) self.conv2 = nn.Conv2d(planes, planes, kernel_size=3, stride=1, padding=1, bias=False) self.bn2 = nn.BatchNorm2d(planes) self.shortcut = nn.Sequential() if stride != 1 or in_planes != self.expansion*planes: self.shortcut = nn.Sequential( nn.Conv2d(in_planes, self.expansion*planes, kernel_size=1, stride=stride, bias=False), nn.BatchNorm2d(self.expansion*planes) ) def forward(self, x): out = nn.ReLU()(self.bn1(self.conv1(x))) out = self.bn2(self.conv2(out)) out += self.shortcut(x) out = nn.ReLU()(out) return out ``` 此代码片段展示了如何构建一个基本的ResNet模块,其中包含了两个连续的卷积层以及用于创建跳跃路径的`shortcut`分支。每当步幅发生变化或者通道数改变时,就会启用这个额外的转换以匹配维度差异。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值