在前面两篇文章总结了经典的CNN四个模型,其网络层次如下所示:

众所周知,网络的层数越低,网络的性能会越来越好。恰面我们看到了经典的四个网络架构,层数最多的也就22层。是不是可以造出更深的网络来呢?为此很多人继续去做实验,人们发现网络性能没有提高反而降低了,考虑其原因可能是梯度爆炸或者梯度消失等,为此有人提出了残差网络的思想。

ResNet残差网络
那么我们作这样一个假设:假设现有一个比较浅的网络(Shallow Net)已达到了饱和的准确率,这时在它后面再加上几个恒等映射层(Identity mapping,也即y=x,输出等于输入),这样就增加了网络的深度,并且起码误差不会增加,也即更深的网络不应该带来训练集上误差的上升。而这里提到的使用恒等映射直接将前一层输出传到后面的思想,便是著名深度残差网络ResNet的灵感来源。
ResNet的主要思想在于残差的思想,如下图所示:
我总结了两方面理解这个思想,emmm不知道对不对,欢迎指正。
(1)我们先看这个结构,如果说浅层网络已经训练的比较好了,深层网络要做的就是保持这个效果,保持效果即使要用一个恒等映射,也就是我们的残差网络H=F+X,这个等式如果我们让F=0,则H=X就能恒等映射浅层网络的东西了,所以残差网络训练到后期就会训练F=0这个过程。

(2)那么对于一个数据集,我们不太清楚训练多少层比较好,但是我们知道一个浅层的网络

本文深入探讨了深度残差网络(ResNet)的设计理念与优化策略,解释了如何通过残差学习解决深层网络的梯度消失问题,以及ResNeXt在ResNet基础上的创新改进。
最低0.47元/天 解锁文章
2024

被折叠的 条评论
为什么被折叠?



