卷积神经网络模型压缩方法介绍

本文介绍了卷积神经网络的模型压缩方法,包括矩阵分解法、矢量量化法(k-means标量量化、乘积量化、余量量化)和深度压缩(模型剪枝、量化训练、哈夫曼编码)。矩阵分解法利用奇异值分解减少参数存储,矢量量化法通过聚类优化存储,深度压缩则结合剪枝、量化和编码进一步压缩模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.矩阵分解法

矩阵分解法被广泛地应用于线性模型的加速以及参数的压缩上,具体方法是使用奇异值分解的方式对参数矩阵进行分解。奇异值分解有很明显的物理意义,即它可以将一个复杂矩阵用几个小矩阵相乘来表示,这些小的矩阵描述的是复杂矩阵的重要特征。例如,给定一个参数矩阵W\in R^m^{n},可以将其分解为W=USV^T。这里U\in R^{mm}V\in R^{nn}里面的向量称为左奇异向量和右奇异向量,而且向量是两两正交的。通过方阵(W^{T}W)v_{i}=\lambda _{i}v_{i}可以求得特征值\lambda _{i},这里的v_{i}为右奇异向量。再通过公式\delta _{i}=\sqrt{\lambda _{i}}u_{i}=\tfrac{1}{\delta _{i}}Mv_{i}求出奇异值\delta _{i}和左奇异向量u_{i}。选取U,V矩阵中的前k个奇异向量,以及其对应的奇异值来近似的描述参数矩阵W。于是近似矩阵\widetilde{W}可以表示为\widetilde{W}=\widetilde{U}_{m\times k}\widetilde{S}_{k\times k}\widetilde{V}_{k\times n}

SVD(奇异值分解)的逼近受S中特征值衰减的控制,SVD方法在Frobenius范数意义下是最优的,使逼近矩阵\widetilde{W}与原始W之间的最小均方误差最小。为了表示原始矩阵W,只需要将\widetilde{U}_{m\times k}

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值