Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning 论文笔记

本文探讨了Inception架构与ResNet残差连接的结合,发现残差连接加速了Inception网络的训练,并提高了性能。研究提出了Inception-v4和Inception-ResNet-v2模型,它们在ImageNet上的表现超过了之前模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

0 摘要

非常深的卷积网络已成为近年来图像识别性能最大进展的核心。Inception architectures(Inception结构)已被证明在相对较低的计算成本下实现了非常好的性能。 在更加传统的架构中引入residual connections(残差连接)的ResNet取得了2015年ILSVRC最佳成绩。那么,将Inception结构与残差连接结合起来会不会更好? 实验表明:
1、具有残差连接的训练显着加速了Inception结构的训练。
2、residual Inception networks性能优于没有残差连接的Inception结构。

1 介绍

本文研究的是将残差连接和Inception结构联合起来。ResNet已经证明残差连接对训练深度网络结构很重要。而Inception结构往往非常深,因此用残差连接替代Inception结构结构中卷积的级联阶段就很自然。这样Inception结构结构就能获得残差连接的收益,并且保持其计算效率。
除了联合残差连接和Inception结构之外,我们还研究了没有残差连接的Inception结构是否可以通过变得更深更宽从而更有效。我们提出了Inception-v4结构,它具有比Inception-v3更统一的简化架构和更多的Inception模块。
本论文中,我们将两个单一Inception变体——Inception-v3和v4与消耗相似的 Inception-ResNet混合版本进行比较。这些模型的挑选主要满足以下约束条件,即和非残差模型具有相似的参数和计算复杂度。事实上我们对更深更宽的Inception-ResNet变体Inception-ResNet-v2也进行测试,它们在ImageNet分类任务上表现性能相似。
最新的实验对组合模型的性能进行了评估。结果显示Inception-v4和Inception-ResNetv2的性能都很好,在ImageNet验证集上其性能已超过业界领先的单个框架模型。

2 相关工作

卷积网络在大规模图像识别任务上的运用非常广泛。主要的模型有Network-in-network、

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值