量化PTQ QAT

博客围绕量化技术展开,涉及PTQ和QAT相关内容。量化是信息技术领域重要技术,PTQ和QAT在其中发挥关键作用,能提升系统性能和效率。

http://www.bryh.cn/a/337445.html

12-08
### PTQ详细介绍 #### 原理 PTQ即训练后量化,没有反向传播不进行权重更新,前向传播只是用来统计。其核心是在训练图里插入FakeQuant节点,公式为$w_q = round(clip(w / scale)) * scale$ 。前向过程模拟量化误差,反向传播时采用STE把梯度直接传给FP32权重。PTQ不依赖原始训练过程,只需对模型进行少量样本的统计与校准即可完成,通过分析权重和激活的统计分布,寻找一个最优的量化映射,使离散化误差最小化。PTQ没有反向传播不进行weight更新,前向只是用来统计,伪量化PTQ来说可有可无 [^3][^4]。 #### 应用场景 适用于模型已训练好,且对精度要求不苛刻的场景。当模型需要快速部署到边缘设备,且能够接受一定的精度损失时,PTQ是一个不错的选择。它可以在不进行大规模重新训练的情况下,快速将模型进行量化,减小模型大小并提升推理速度 [^3]。 ### QAT详细介绍 #### 原理 QAT量化感知训练,需要插入QAT算子且需要训练进行微调。流程为准备一个预训练模型,在模型中添加QAT算子,微调带有QAT算子的模型,将微调后模型的量化参数(q - params)存储下来,最后量化模型执行推理。在训练时采用伪量化,因为如果不使用伪量化,由于导数为0无法进行梯度更新。在训练图里插入FakeQuant节点,前向模拟量化误差,反向传播时STE把梯度直接传给FP32权重,让网络学会“抗量化”。其粒度方面,默认权重是per - channel,激活是per - tensor,最新研究中scale/zero - point亦可作为可学习参数进行端到端更新 [^2][^3]。 #### 应用场景 适用于精度敏感,可接受再训练的场景。当模型对精度要求较高,且有足够的训练资源(如完整训练集和GPU时间)时,QAT能够在量化的同时保证模型精度几乎无损,支持4 - bit超低比特量化 [^3]。 以下是PyTorch中QAT的示例代码: ```python import torch, torchvision, torch.quantization as tq model = torchvision.models.resnet18(pretrained=True) model.train() tq.prepare_qat(model, qconfig=tq.get_default_qat_qconfig('fbgemm')) opt = torch.optim.AdamW(model.parameters(), 1e-4) # 假设train_loader是训练数据加载器 for x, y in train_loader: loss(model(x), y).backward() opt.step() torch.jit.save(tq.convert(model.eval()), 'qat.pt') ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值