【ResNet】Deep Residual Learning for Image Recognition笔记

本文介绍了ResNet网络如何解决深度学习中的梯度消失和爆炸问题,通过引入残差块使得深层网络能更好地拟合恒等映射。ResNet的残差连接方式包括直接填充0、线性变换(1x1卷积)来调整维度。通过对比实验,展示了ResNet在不同深度下的优秀性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

论文地址:https://link.zhihu.com/?target=https%3A//arxiv.org/abs/1512.03385

论文代码:https://link.zhihu.com/?target=https%3A//github.com/KaimingHe/deep-residual-networks 

1、问题

Vanishing or exploding gradients has been largely addressed by normalized initialization and intermediate normalization layers.

problem:在一定深度下,深层网络的训练误差大于浅层网络的训练误差。

2、文中的残差

恒等映射问题:宿儒一个x经过某个函数(设为G(x))作用输出还是x本身,即G(x)=x。

若上图中的original block输入为x,输出也应为x,那么这个block中的w, b参数将无法很好的去学习这样的恒等映射,但是若是加入了残差,那么可以直接令block中参数为0即可。

Why ResNet perform better?

可以更加容易的拟合恒等映射,至少会让深度网络与浅层网络有相同的拟合能力,不会出现之前的网络退化的问题。

Shortcut的方式:(主要是对维度的调整)

(1)如果x的维度增加,就使用0来填充增加出来的维度。

(2)(文中采用)如果x维度增加,使用线性变换来增加多出来的维度,在程序中表现为使用一个1x1卷积核进行调整维度。

(3)对所有的shortcut都是用线性变换,也就是1x1的卷积。

一些结构的对比:

作者搭建的其他深度的resnet网络结构:

实验结果的对比:

不同深度的ResNet模型对比实验:

 

 

以上内容参考:https://zhuanlan.zhihu.com/p/32085715

 

 

 

 

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值