【网络优化】超轻量级网络SqueezeNet算法详解

本文详细解析了SqueezeNet算法,它实现了与AlexNet相近的分类精度,但模型大小减小了50倍。文章介绍了SqueezeNet的基础模块——fire模块,网络结构,以及通过裁剪、量化和编码实现的参数压缩方法。此外,还探讨了设计思路,包括参数组合策略和SDS训练法,以提高模型性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Iandola, Forrest N., et al. “SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and< 1MB model size.” arXiv preprint arXiv:1602.07360 (2016).

本文考察了深度学习中除了精度之外的另一个重要因素:模型大小。有两处值得学习的亮点

  • 给出了一个分类精度接近AlexNet1的网络,模型缩小510倍
  • 归纳了缩小模型尺寸时的设计思路

复习:卷积层的参数个数。
输入通道 c i c_i ci,核尺寸 k k k,输出通道 c o c_o co,参数个数为: c i × k 2 × c o c_i \times k^2 \times c_o ci×k2×co
以AlexNet第一个卷积层为例,参数量达到:31111*96 = 34848。

作者提供的源码请戳这里,各个主流框架均有实现。

基础模块

在当下许多深度学习的文章中都使用了模块化的设计思想,远者有AlexNet中反复出现的conv+relu+pool模式;近者有用于人体姿态分析的Stacked Hourglass算法(参看这篇博客

本文使用的基础模块称为fire:
这里写图片描述
包含三个卷积层(蓝色),步长均为1。分为squeeze和expand两部分,分别压缩和扩展数据(灰色矩形)的通道数。
expand部分中,两个不同核尺寸的结果通过串接层(黄色)合并输出。

fire模块有三个可调参数

  • s 1 s_1
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值