Resnet(残差网络)
参考:
https://www.cnblogs.com/alanma/p/6877166.html
https://blog.youkuaiyun.com/lanran2/article/details/79057994
-
问题
训练更加深层的网络能够提取更多的特征。理论上来说会取得更好的效果。
但是不能简单的增加网络层数
- 单单增加网络的深度会导致梯度消失以及梯度爆炸的问题
- 可以通过正则化或者Batch Normalization来解决梯度消失或者梯度爆炸等问题
- 仅仅依靠正则化或者Batch Normalization来增加网络深度还会带来退化问题
- 网络在训练集上准确率下降,很难去通过深层网络拟合目标函数
- 单单增加网络的深度会导致梯度消失以及梯度爆炸的问题
-
核心思想

对于多层网络来说,拟合潜在的恒等函数

Resnet网络解决了深层神经网络中梯度消失和梯度爆炸的问题,通过引入残差块使得网络能有效学习并优化微小变化。其核心思想是设计网络为H(x)=F(x)+x,学习残差F(x)=H(x)-x,当F(x)=0时,网络输出为恒等函数,简化了学习过程。
最低0.47元/天 解锁文章
2392

被折叠的 条评论
为什么被折叠?



