轻量级神经网络总结(1)- SqueezeNet - Xception- MobileNet v1/v2 - ShuffleNet V1/V2 - MixNet

现阶段神经网络在GPU上运行速度已经可以达到实时性要求,但是移植到手机端或者在CPU上运行还存在运行速度的问题。网络优化加速主要包含:1.设计轻量级的网络;2.网络模型压缩剪枝;3.其他的一些量化加速。这里主要是记录轻量级的神经网络(与模型压缩有着本质性的区别):

1.SqueezeNet:

发表于ICLR-2017,它在ImageNet上实现了和AlexNet相同的正确率,但是只使用了1/50的参数。更进一步,使用模型压缩技术,可以将SqueezeNet压缩到0.5MB,这是AlexNet的1/510。
思想比较简单,主要包含squeeze层和expand层:squeeze层通过1×1的卷积核减少输入通道的数量;expand层中,把1×1 和3×3 得到的feature map进行concat,以得到不同尺寸的卷积特征,如图
在这里插入图片描述

2.Xception:

Xception是Extreme Inception的意思,主要是对 inception的改进,提出了depthwise separable convolution来代替常规卷积操作。

(1)inception v3:

在这里插入图片描述

(2)depthwise separable convolution:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值