0 摘要
非常深的卷积网络已成为近年来图像识别性能最大进展的核心。Inception architectures(Inception结构)已被证明在相对较低的计算成本下实现了非常好的性能。 在更加传统的架构中引入residual connections(残差连接)的ResNet取得了2015年ILSVRC最佳成绩。那么,将Inception结构与残差连接结合起来会不会更好? 实验表明:
1、具有残差连接的训练显着加速了Inception结构的训练。
2、residual Inception networks性能优于没有残差连接的Inception结构。
1 介绍
本文研究的是将残差连接和Inception结构联合起来。ResNet已经证明残差连接对训练深度网络结构很重要。而Inception结构往往非常深,因此用残差连接替代Inception结构结构中卷积的级联阶段就很自然。这样Inception结构结构就能获得残差连接的收益,并且保持其计算效率。
除了联合残差连接和Inception结构之外,我们还研究了没有残差连接的Inception结构是否可以通过变得更深更宽从而更有效。我们提出了Inception-v4结构,它具有比Inception-v3更统一的简化架构和更多的Inception模块。
本论文中,我们将两个单一Inception变体——Inception-v3和v4与消耗相似的 Inception-ResNet混合版本进行比较。这些模型的挑选主要满足以下约束条件,即和非残差模型具有相似的参数和计算复杂度。事实上我们对更深更宽的Inception-ResNet变体Inception-ResNet-v2也进行测试,它们在ImageNet分类任务上表现性能相似。
最新的实验对组合模型的性能进行了评估。结果显示Inception-v4和Inception-ResNetv2的性能都很好,在ImageNet验证集上其性能已超过业界领先的单个框架模型。
2 相关工作
卷积网络在大规模图像识别任务上的运用非常广泛。主要的模型有Network-in-network、