压缩神经网络(一):剪枝的基本思想

本文介绍了压缩神经网络的剪枝技术,通过训练确定网络连接的重要性,并设定阈值剪切不重要的连接。经过反复剪切和再训练,得到参数最小化的网络。正则化中,L1和L2范式在剪切前后效果不同,同时剪切过程会影响dropout比率,需要调整。此外,局部剪切和参数协同适应能减少计算量并缓解梯度消失问题。实验中,依据层的标准差选择阈值。最后提供了代码链接,但表示代码组织较混乱。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Learning both Weights and Connections for Efficient Neural Networks

主要思想
  1. 训练网络来得知哪些网络连接important和unimportant。
    设定一个临界值(shreshold),权重w小于临界值的连接 不重要
  2. 剪切掉不重要的连接
  3. 再训练剪切后得到的网络,调整剪切剩下的参数。
  4. 反复进行2,3 得到一个参数最少的神经网络。
注意点
  1. 正则化
    使用L1范式和L2范式对参数W进行约束。
    在剪切后,retrain前的效果L1范式比L2范式的效果。
    但在retrain后,L2范式的效果比L1范式要好
  2. dropout比率的调整
    deopout :在训练过程中,按照一定概率将连接的权重置为0,但是下一次训练的时候还是一直存在,文中的pruning(剪切),会使得连接不在存在。
    随着剪切的进行,需要按照文中给的公式,进行dropout的比率进行调整。
  3. Local Pruning and Parameter Co-adaptation
    在retrain时直接训练上一次pruning后保留下来的参数,而不是重新初始化参数。这样有两个好处:
    1. 计算量小
    2. 避免了梯度消失的问题
  4. 反复迭代进行pruning和retrain。
  5. 去掉输入或输出为0的神经元(neurous)
实验
  1. 选择临界值(shreshold):
评论 18
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值