resnet论文笔记

ResNet通过残差学习和跨层连接解决深度神经网络的退化问题,使网络能训练得更深且复杂度更低。残差块的设计允许网络在精度饱和后通过学习残差等于0实现恒等映射,从而避免性能下降。每个残差块的层数可以根据需求自由设置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. introduction

1.1 问题的提出

越深越好

有实验证明网络越深,效果越好(深度神经网络通过层的堆叠,集成了low/mid/high level的特征,层数越深level越丰富)

 

深带来的梯度爆炸问题

主要通过normalized initialization和intermediate normalization layer,让网络可以达到数十层

 

解决了梯度爆炸,网络可收敛,但是又面临退化问题

退化问题就是:当前模型的深度已经是拟合数据的最优深度(精度达到饱和),再额外加layer就会导致退化(训练精度会下降,并不是过拟合导致的)。我们希望的是能够有identity mapping 使得在精度饱和之后,后面添加的层都是copy from the shallower layer..

 

1.2 解决方案---ResNet

ResNet的优势

(1) 学习残差(精度饱和后使其=0)比identity mapping更易学,所以易于优化,解决深度加深的退化问题

(2) 可以非常,而且复杂度更小

 

ResNet主要的思想

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值