现阶段神经网络在GPU上运行速度已经可以达到实时性要求,但是移植到手机端或者在CPU上运行还存在运行速度的问题。网络优化加速主要包含:1.设计轻量级的网络;2.网络模型压缩剪枝;3.其他的一些量化加速。这里主要是记录轻量级的神经网络(与模型压缩有着本质性的区别):
1.SqueezeNet:
发表于ICLR-2017,它在ImageNet上实现了和AlexNet相同的正确率,但是只使用了1/50的参数。更进一步,使用模型压缩技术,可以将SqueezeNet压缩到0.5MB,这是AlexNet的1/510。
思想比较简单,主要包含squeeze层和expand层:squeeze层通过1×1的卷积核减少输入通道的数量;expand层中,把1×1 和3×3 得到的feature map进行concat,以得到不同尺寸的卷积特征,如图:
2.Xception:
Xception是Extreme Inception的意思,主要是对 inception的改进,提出了depthwise separable convolution来代替常规卷积操作。
(1)inception v3:
(2)depthwise separable convolution: