Post training 4-bit quantization of convolutional networks for rapid-deployment

本文探讨了在不进行重训练或微调的情况下,对卷积网络进行训练后4位量化以减少计算资源需求的方法。通过ACIQ(Analytical Clipping for Integer Quantization)分析量化误差,并提出通道特定位分配策略,以提高量化精度。同时,针对权重量化中的偏差,提出了补偿方法。这些方法在保持模型精度的同时,简化了部署流程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

现有的很多量化方法都是通过量化后重训练来弥补量化损失的,但这些方法并不完美:它们需要完整的数据集(这涉及到隐私及其他问题),而且还需要大量的计算资源。于是,一种被称为post-training的方法被提出了:它不需要完整的数据集,也不需要重新训练或微调模型(也就是说,可以达到端对端),且它的准确率与流行的浮点模型的精度接近。

但这类方法一旦把量化精度放到8bit以下时,精度就大幅下降。为了解决这个问题,本文提出了一种利用网络分布的统计信息来最小化在量化过程中引入的本地误差。

ACIQ: Analytical Clipping for Integer Quantization

作者提出了三种方法,第一种是应用于激活层,其形式为:
在这里插入图片描述
由于[-α,α]被在这里插入图片描述
均分,因此设间隔Δ:在这里插入图片描述
作者又假设量化前的值位于每个小区间的中心处(由大数定理知,这个假设是可行的),于是量化的方差为:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值