引言
残差神经网络(ResNet)是由微软研究院的何恺明、张祥雨、任少卿、孙剑等人提出的。ResNet 在2015 年的ILSVRC(ImageNet Large Scale Visual Recognition Challenge)中取得了冠军。
残差神经网络的主要贡献是发现了“退化现象(Degradation)”,并针对退化现象发明了 “快捷连接(Shortcut connection)”,极大的消除了深度过大的神经网络训练困难问题。神经网络的“深度”首次突破了100层、最大的神经网络甚至超过了1000层。
ResNet论文地址:[1512.03385] Deep Residual Learning for Image Recognition (arxiv.org)
残差网络的效果:
具有20层和56层“普通”网络的CIFAR-10上的训练误差(左)和测试误差(右)。更深的网络具有更高的训练误差,从而具有测试误差。
一、残差网络是什么
我们都知道增加网络的宽度和深度可以很好的提高网络的性能,深的网络一般都比浅的的网络效果好,比如说一个深的网络A和一个浅的网络B,那A的性能至少都能跟B一样,为什么呢?因为就算我们把B的网络参数全部迁移到A的前面几层,而A后面的层只是做一个等价的映射,就达到了B网络的一样的效果。一个比较好的例子就是

本文介绍了残差神经网络(ResNet),一种通过引入残差块解决深度神经网络训练问题的技术。ResNet在ImageNet竞赛中夺冠,解决了深度增加导致的训练困难和退化现象,显著提升了性能,被广泛应用在计算机视觉任务中。
最低0.47元/天 解锁文章
7487

被折叠的 条评论
为什么被折叠?



