2张图理解resnet核心思想

ResNet通过引入残差块,解决了随着网络深度增加而导致的学习能力下降问题。传统网络(PlainNet)在加深层数时,学习误差反而增大。ResNet利用残差函数F(x)=H(x)-x,使得即使在网络深度增加时,也能保持甚至提升学习效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

版权声明:本文为博主原创文章,转载需注明出处。    https://blog.youkuaiyun.com/u013698770/article/details/57977482
resnet是用于解决什么问题的

实验结果表明,层数的增加会提高网络的学习效果。但是,实验结果也表明,如果只是单纯的增加网络的深度,网络的学习能力会下降。实验结果如下图所示:56层的学习误差比20层的学习误差还要大。因此,我们需要一种方法,使网络的深度增加的同时,学习能力也增加。 


resnet是通过什么方式来解决问题的

resnet的出现就是来解决这个问题的。 
一般情况下我们的网络如下图所示,相较于resnet,我们称之为plaint net,经过两个神经层之后,输出的H(x)
如下所示: 
H(x)=relu(w2∗(relu(w1∗x)))
 
H(x)和x之间存在一个函数的关系,比如说这两层神经网络构成的是H(x)=2x这样的关系
 


但是,在残差的网络中,用F(x)=relu(w2∗(relu(w1∗x)))
, 
而输出的H(x)=F(x)+x
,那么,为什么要这么设置呢? 
Residual Net 核心思想是,去拟合残差函数 F(F=H(x)−g(x))
,选 g(x)=x
 时效果最好。 
因此,F(x)=H(x)−x

--------------------- 
作者:罗泽 
来源:优快云 
原文:https://blog.youkuaiyun.com/u013698770/article/details/57977482 
版权声明:本文为博主原创文章,转载请附上博文链接!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值