SqueezeNet 算法的介绍

SqueezeNet是一种轻量级的卷积神经网络,旨在在不显著降低精度的情况下提高运算速度。通过使用1x1卷积替换3x3卷积,减少通道数,以及将降采样后置,SqueezeNet大大减少了参数数量。Fire模块作为其核心组成部分,包含Squeeze和Expand两部分,有效地实现了模型压缩。尽管SqueezeNet减少了参数,但在嵌入式环境中可能牺牲了并行性,导致测试时间增加。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

学习视频:四分钟精通 SqueezeNet(思想,公式,代码)--计算机视觉系列 05【推荐】_哔哩哔哩_bilibili

从LeNet5到DenseNet,反应卷积网络的一个发展方向:提高精度。这里我们开始另外一个方向的介绍:在不大幅降低模型精度的前提下,最大程度的提高运算速度

提高运算所读有两个可以调整的方向:

  1. 减少可学习参数的数量;
  2. 减少整个网络的计算量。

这个方向带来的效果是非常明显的:

  1. 减少模型训练和测试时候的计算量,单个step的速度更快;
  2. 减小模型文件的大小,更利于模型的保存和传输;
  3. 可学习参数更少,网络占用的显存更小。

SqueezeNet正是诞生在这个环境下的一个精度的网络,它能够在ImageNet数据集上达到AlexNet[2]近似的效果,但是参数比AlexNet少50倍,结合他们的模型压缩技术 Deep Compression[3],模型文件可比AlexNet小510倍。


1. SqueezeNet 详解

1.1 SqueezeNet的压缩策略

SqueezeNet的模型压缩使用了3个策略:

  1. 将 3×3 卷积替换成 1×1 卷积:通过这一步,一个卷积操作的参数数量减少了9倍;
  2. 减少 3×3 卷积的通道数:一个 3×3 卷积的计算量是 3×3×M×N (其中 M , N 分别是输入Feature Map和输出Feature Map的通道数),作者任务这样一个计算量过于庞大,因此希望将 M , N 减小以减少参数数量;
  3. 将降采
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值