现在inception系列有四篇文章:
转载自:http://www.jianshu.com/p/329d2c0cfca9
[v1] Going Deeper with Convolutions, 6.67% test error https://arxiv.org/abs/1409.4842
[v2] Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift, 4.8% test error,
https://arxiv.org/abs/1502.03167
[v3] Rethinking the Inception Architecture for Computer Vision, 3.5% test error, https://arxiv.org/abs/1512.00567
[v4] Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning, 3.08% test error, https://arxiv.org/abs/1602.07261
大体思路变化就是:
- Inception v1的网络,将1x1,3x3,5x5的conv和3x3的pooling,stack在一起,一方面增加了网络的width,另一方面增加了网络对尺度的适应性;
- v2的网络在v1的基础上,进行了改进,一方面了加入了BN层,(BN层的作用)减少了Internal Covariate Shift(内部neuron的数据分布发生变化),使每一层的输出都规范化到一个N(0, 1)的高斯,另外一方面学习VGG用2个3x3的conv替代inception模块中的5x5,既降低了参数数量,也加速计算;
- v3一个最重要的改进是分解(Factorization),将7x7分解成两个一维的卷积(1x7,7x1),3x3也是一样(1x3,3x1),这样的好处,既可以加速计算(多余的计算能力可以用来加深网络),又可以将1个conv拆成2个conv,使得网络深度进一步增加,增加了网络的非线性,还有值得注意的地方是网络输入从224x224变为了299x299,更加精细设计了35x35/17x17/8x8的模块
- v4研究了Inception模块结合Residual Connection能不能有改进?发现ResNet的结构可以极大地加速训练,同时性能也有提升,得到一个Inception-ResNet v2网络,同时还设计了一个更深更优化的Inception v4模型,能达到与Inception-ResNet v2相媲美的性能。
v4 有两个版本:Inception-ResNet-v1 和 Inception-ResNet-v2
Inception-ResNet-v1:roughly the computational costof Inception-v3 与v3 差不多的计算量
Inception-ResNet-v2” matches the raw cost of the newly introduced Inception-v4 network 应该是Inception-ResNet-v2 计算量更小一点
总的网络结构:
inception v4 与v3 的输入尺寸是一致的299
经过stem 的操作之后输出变成 35*35*384 的
stem 的操作为: