源码及论文地址:https://github.com/BVLC/caffe/wiki/Model-Zoo#network-in-network-model
这篇paper改进了传统的CNN网络,采用了少量的参数就轻松击败了Alexnet网络,Alexnet网络参数大小是230M,采用这篇paper的算法才29M,减小了将近10倍。另外,这篇paper提出的网络结构,是对传统CNN网络的一种改进。
先看一下摘要,对NIN有个简单的了解:
文章中的两个创新点:
1. MlpConv卷积层
传统卷积层时下图左侧方式的,可以理解为是一个简单的单层网络,而MlpConv可以看成是每个卷积的局部感受野中还包含了一个微型的多层网络,用来提高非线性。利用多层Mlp的微型网络,对每个局部感受野的神经元进行更加复杂的运算,而以前的卷积层,局部感受野的运算仅仅只是一个单层的神经网络罢了。

论文《Network In Network》提出了一种改进的CNN结构,包括MlpConv卷积层和全局平均池化技术。MlpConv通过微型多层网络增强局部感受野的非线性表达能力,而全局平均池化替代全连接层,减少参数数量,提高网络的泛化能力。在CIFAR-10数据集上的实验显示,全局平均池化的使用显著提高了模型性能。
最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



