网络模型剪枝-论文阅读《Learning both Weights and Connections for Efficient Neural Networks》

本文介绍了2015年NIPS上韩松大神关于网络模型剪枝的研究,探讨了如何通过移除权重低于特定阈值的连接来压缩和加速深度学习模型,同时保持精度。文章强调了在剪枝后进行重训练的重要性,分析了正则化方法(L1与L2)、dropout比例调整以及神经元剪枝对模型的影响。实验表明,该方法能够在几乎无精度损失的情况下,对VGG等模型实现13倍的压缩。

这是2015年NIPS的一篇经典的剪枝文章,由韩松大神所作,由于年代比较久远,所以就大概说一下它的重点内容,以便给模型剪枝有个初始印象。

Introduction

文章首先讲了LeNet、AlexNet和VGG这些当时经典的网络的参数量的非常大,同时需要的存储空间也越来越大;然后以能量消耗的角度谈了这些模型运行具体能消耗多少能量。这就引出了本文的目标,就是对较大的网络模型进行剪枝以降低能量消耗从而能在移动端实时运行。

文章提出的剪枝策略是:①在初始模型训练完成后,②移除权重低于特定阈值的所有连接,即从稠密连接的网络剪枝得到一个稀疏连接的网络,③然后重新训练得到的网络用来减小精度损失。其中,②③两步可以多次迭代进行以得到最优模型。如图所示:

在这里插入图片描述

该策略能在剪枝后还能保持原有的精度几乎不损失。

Learning Connections in Addition to Weights

这里文章分析了一些(重)训练中使用的方法对重训练的影响。

正则化(Regularization)

我们知道,L1正则化使得网络模型变得稀疏,作者通过实验证明,如果不进行重训练的话,L1正则化比L2正则化使得网络精度损失少(如下图中随着剪枝比例增加,蓝色比紫色精度损失更少),但是经过重训练后L2正则化比L1正则化更好(如下图绿色对黄色)。而经过多

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值