Inception-v2-2015

本文探讨了深度网络训练中的内部协变量偏移问题,提出Batch Normalization层作为解决方案,该层加速了网络训练并减少了对初始化和学习率的敏感性。此外,文章还介绍了Inception系列模型,包括Inception-v1到Inception-v4的结构与改进。

Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

网络的输出受到前一层的影响,如果前一层的输出发生变化,那么对于后面所有层都有影响。后面所有层需要更多的时间,去适应新的变换。这种现象,作者叫做内部协变量偏移。这篇论文最主要的贡献是创造性的提出了BN层。BN层的出现使得网络对于初始化和学习率都不用太敏感。

 Inception系列理解_莫一丞元的博客-优快云博客_inception

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一壶浊酒..

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值