1、引言
2015年,MSRA(微软亚洲研究院)何凯明团队的深度残差网络(Deep Residual Network)在Imagenet上取得冠军,可以说深度残差网络的提出是CNN图像史上的里程碑事件,Resnet的作者何凯明也因此获得了CVPR2016最佳论文奖。Resnet为什么这么强大,备受人们的青睐呢?因为它解决了深度CNN网络模型训练难的问题。我们知道2014年的VGG才19层,而15年的Resnet多达152层,这在网络深度上完全不是一个层次,我们可能会理所当然的认为Resnet是靠深度取胜的,但是事实并不完全是这样,除了深度,Resnet还有它自己架构上的小trick,这才使得网络的深度 发挥出作用,而这个trick就是残差学习(Residual learning)
论文地址:https://arxiv.org/pdf/1512.03385v1.pdf
2、Resnet提出的原因
对于传统的深度学习网络,我们普遍认为网络越深、参数越多,网络非线性的表达能力就越强,学习到的东西也就越多。凭借这一规则,经典的CNN网络从LeNet-5(5层)、AlexNet(8层),发展到VGGNet(16-19层),再到后来的GoogleNet(22层)。VGG网络试着探寻了一下深度学习网络究竟可以深到何种程度,依然能继续提高分类的准确率,它的实验结果告诉我们,在某种程度上&#