ResNet导读
深度神经网络不是越深越好
当深度神经网络特别深的时候,识别的错误率反而可能更高,如论文中所示,56层的神经网络识别的训练和测试阶段的错误率反而比20层的要高。
改造VGG19
基本Block
如上图所示,分别为VGG-19,34层返照VGG的结构,加入block之后结构。
最重要的公式
Block如上图所示,是将输入之前的神经网络和经过两个卷积的神经网络进行了相加。
其计算公式如上图所示,其中Ws是用来调节维度用。
对比实验结果
可以看到上图右图中加入block的深度残差网络效果明显提升。
本文探讨了深度神经网络并非越深越好这一观点,并通过实验证明,过深的网络可能导致识别错误率升高。文章介绍了ResNet如何通过引入特殊结构——Block来解决此问题,显著提升了深度网络的表现。
4万+

被折叠的 条评论
为什么被折叠?



