Deep Residual Learning for Image Recognition论文笔记

针对深层神经网络训练难题,本文介绍了一种深度残差学习框架,通过identitymapping和shortcutconnections解决梯度消失与爆炸问题,实现更深网络的高效训练,且在多项视觉任务中取得优异成绩。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

背景

  1. 神经网络越深越难以训练
  2. 堆叠网络层会造成梯度消失与梯度爆炸,阻止收敛。一般的解决办法是通过normalized initialization和intermediate normalization layers,保证几十层的网络通过反向传播的SGD收敛。
  3. 当网络层数增加,准确率会达到饱和,然后迅速下降。这不是因为过拟合,而是因为增加更多层会造成更高的训练错误率。

创新

  1. 提出deep residual leaning framework,网络更深,但是复杂度更低,减轻了网络的训练;易于优化;并且在ImageNet的检测与定位,COCO的检测与分割上获得了更高的准确率。
  2. 考虑浅层的架构和增加更多层的深层副本:增加的层叫做identity mapping,其他层是从学到的浅层的模型复制的
  3. shortcut connections:跳过一层或多层网络,并将identity mapping的输出叠加到stacked layers的输出。identity shortcut connections既不会增加额外的参数,也不会增加计算复杂度,甚至不用修改solvers就可以通过反向传播SGD进行端到端训练。
  4.  

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值