神经网络压缩(3):Learning both Weights and Connections for Efficient Neural Network

该文探讨了在神经网络中同时学习权重和连接的重要性,以实现更高效的网络。通过训练确定重要连接,剪枝冗余连接,再进行微调,减少模型参数量,如AlexNet和VGG-16在降低参数量的同时保持精度。文章还讨论了正则化、Dropout比例调整、局部剪枝和参数协同适应等策略,并强调迭代剪枝和神经元剪枝的有效性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Learning both Weights and Connections for Efficient Neural Networks

Abstract

  1. 目的:减少存储量和计算量,使网络更适合在移动设备上运行
  2. 方法:简单地说是只学习重要的连接,修剪冗余的连接减少模型参数
  3. 步骤:train,学习哪些连接是重要的
       prune,剪去不重要的连接
       retrain,finetune剩下的连接的参数
       prune和retrain可以反复迭代进行
  4. 结果:AlexNet减少模型参数量61million->6.7million,没有精度损失
       VGG-16减少模型参数量138million->10.3million,没有精度损失
  1. 8-bit integer (vs 32-bit floating point) activations,用8位int型的activation代替32位float
  2. 量化(Deep Compress论文中介绍的)和剪枝可以同时使用,以获得进一步收益
  3. Network in Network和GoogleNet模型中使用了global average pooling代替FC层来减少参数,但在使用ImageNet的参数时,需要另外增加一个线性层。(这是在网络结构方面寻求参数缩减)
  4. HashNet,和prune结合可能会得到更好的效果

Idea


  • 首先训练整个网络,目的是找出哪些是重要的连接;接着设置一个threshold,pruning掉low-weight的连接(小于该threshold就remo
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值