29.深度学习模型压缩方法-3

本文探讨深度学习模型压缩中的后端技术,包括低秩近似来减少权重矩阵的存储和计算需求,无限制的剪枝以去除冗余参数,参数量化策略如二值网络和三值网络,以及它们在提高运算速度和降低模型尺寸方面的应用。同时,介绍了量化技术如何通过n-bit编码来增强模型的表达能力。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

29.1 后端压缩

(1)低秩近似

  • 在卷积神经网络中,卷积运算都是以矩阵相乘的方式进行
  • 对于复杂网络,权重矩阵往往非常大,非常消耗存储和计算资源
    • 低秩近似就是用若干个低秩矩阵组合重构大的权重矩阵,以此降低存储和计算资源消耗。
事项 特点
优点 可以降低存储和计算消耗; 一般可以压缩2-3倍;精度几乎没有损失;
缺点 模型越复杂,权重矩阵越大,利用低秩近似重构参数矩阵不能保证模型的性能 ; 超参数的数量随着网络层数的增加呈线性变化趋势,例如中间层的特征通道数等等。 随着模型复杂度的提升,搜索空间急剧增大。

(2)未加限制的剪枝

  • 完成训练后,不加限制地剪去那些冗余参数。
事项 特点
优点 保持模型性能不损失的情况下,减少参数量9-11倍; 剔除不重要的权重,可以加快计算速度,同时也可以提高模
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值