深度学习基础:残差网络为何可以解决梯度消失

本文探讨了残差网络如何通过避免梯度消失问题,通过引入残差连接来维持梯度流动,同时提升深层网络的表达能力,特别是在捕获图像细节方面的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

普通网络:

gif.latex?Y%20%3D%20F_%7Bk%7D%28F_%7Bk-1%7D%28...F_%7B2%7DF_%7B1%7D%28x_%7B1%7D%29%29%29

对损失函数进行求导

gif.latex?%5Cfrac%7B%5Cpartial%20loss%7D%7B%5Cpartial%20x1%7D%20%3D%20%5Cfrac%7B%5Cpartial%20loss%7D%7B%5Cpartial%20F_%7Bk%7D%7D%5Cfrac%7B%5Cpartial%20F_%7Bk%7D%7D%7B%5Cpartial%20F_%7Bk-1%7D%7D%5Ccdots%20%5Cfrac%7B%5Cpartial%20F_%7B2%7D%7D%7B%5Cpartial%20F_%7B1%7D%7D%5Cfrac%7B%5Cpartial%20F_%7B1%7D%7D%7B%5Cpartial%20x_%7B1%7D%7D (1)

残差网络

gif.latex?%5Cfn_phv%20x_%7Bk%7D%20%3D%20x_%7B1%7D%20+%5Csum%20F_%7Bi%7D%28x_%7Bi%7D%29

对损失函数进行求导

gif.latex?%5Cfn_phv%20%5Cfrac%7B%5Cpartial%20loss%7D%7B%5Cpartial%20x_%7B1%7D%7D%20%3D%20%5Cfrac%7B%5Cpartial%20loss%7D%7B%5Cpartial%20x_%7Bk%7D%7D%28%5Cfrac%7B%5Cpartial%20x_%7B1%7D%7D%7B%5Cpartial%20x_%7B1%7D%7D+%5Cfrac%7B%5Csum%20F_%7Bi%7D%28x_%7Bi%7D%29%7D%7B%5Cpartial%20x_%7B1%7D%7D%29%20%3D%20%5Cfrac%7B%5Cpartial%20loss%7D%7B%5Cpartial%20x_%7Bk%7D%7D%281+%5Cfrac%7B%5Cpartial%20%5Csum%20F_%7Bx_%7Bi%7D%7D%7D%7B%5Cpartial%20x_%7B1%7D%7D%29      (2)

 

 

分别两个(1)(2)我们可以发现:

(1)中,当有几个偏导很小的时候,梯度会迅速趋近于0,但是(2)中,要趋近于0,条件比较苛刻,要么前面一部分趋近0,要么后一部分趋近-1
总的来说,残差网络并不是解决了梯度消失问题,而是在一定程度上规避了问题,让其很难梯度消失。

注意:

1.神经网络的权重更新是沿着梯度的负方向,当没有梯度的时候,更新就会停滞,或者当梯度很大的时候,有可能会跳过最优解,这就是梯度消失和梯度爆炸对神经网络的“危害”

2.残差网络使得网络更深,而更深的网络拥有更大的感受野,感受野越大,越能捕获图像中的细节信息。残差网络是一个双支路,他可以融合两个支路的特征,使得融合后的特征图有更强的表达能力,说白了就是使得融合后的特征图有更大的感受野!

 

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值