模型轻量化方法之----神经网络稀疏

1 稀疏

本人尝试过的稀疏算法有限,目前尝试过阈值稀疏、admm稀疏方式和简易pattern pruning,在此做一小结。

日后若有别的这方面尝试,会继续加。
稀疏的好处:减少存储,减少运算量,软硬件都可用。

  • 网络层数多,结构复杂,往往有更多的冗余
  • 不同场景下需求不一样。大数据集训练,小数据集测试可以带来更高的稀疏度
  • 本身参数值就小,可能更容易有更高的稀疏度
  • 针对不同网络层,采用不同的稀疏度

1.1 结构化稀疏

1) layer pruning

直接将某一层全部置零

2) channel pruning

某些通道全为零

3) intra-kernel pruning

某些行(列)全为零

pattern pruning
  1. 预先设置一些pattern作为mask,
  2. 针对weight的每个通道,选择与各pattern相乘之后,绝对值和最大的那个pattern
  3. 训练

1.2 非结构化稀疏

1) 阈值稀疏

简言之,就是将绝对值小的值置为零。

这里细分还可以分为 按层࿰

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值