量化PTQ QAT

博客围绕量化技术展开,涉及PTQ和QAT相关内容。量化是信息技术领域重要技术,PTQ和QAT在其中发挥关键作用,能提升系统性能和效率。

http://www.bryh.cn/a/337445.html

根据原作 https://pan.quark.cn/s/459657bcfd45 的源码改编 Classic-ML-Methods-Algo 引言 建立这个项目,是为了梳理和总结传统机器学习(Machine Learning)方法(methods)或者算法(algo),和各位同仁相互学习交流. 现在的深度学习本质上来自于传统的神经网络模型,很大程度上是传统机器学习的延续,同时也在不少时候需要结合传统方法来实现. 任何机器学习方法基本的流程结构都是通用的;使用的评价方法也基本通用;使用的一些数学知识也是通用的. 本文在梳理传统机器学习方法算法的同时也会顺便补充这些流程,数学上的知识以供参考. 机器学习 机器学习是人工智能(Artificial Intelligence)的一个分支,也是实现人工智能最重要的手段.区别于传统的基于规则(rule-based)的算法,机器学习可以从数据中获取知识,从而实现规定的任务[Ian Goodfellow and Yoshua Bengio and Aaron Courville的Deep Learning].这些知识可以分为四种: 总结(summarization) 预测(prediction) 估计(estimation) 假想验证(hypothesis testing) 机器学习主要关心的是预测[Varian在Big Data : New Tricks for Econometrics],预测的可以是连续性的输出变量,分类,聚类或者物品之间的有趣关联. 机器学习分类 根据数据配置(setting,是否有标签,可以是连续的也可以是离散的)和任务目标,我们可以将机器学习方法分为四种: 无监督(unsupervised) 训练数据没有给定...
12-08
### PTQ详细介绍 #### 原理 PTQ即训练后量化,没有反向传播不进行权重更新,前向传播只是用来统计。其核心是在训练图里插入FakeQuant节点,公式为$w_q = round(clip(w / scale)) * scale$ 。前向过程模拟量化误差,反向传播时采用STE把梯度直接传给FP32权重。PTQ不依赖原始训练过程,只需对模型进行少量样本的统计与校准即可完成,通过分析权重和激活的统计分布,寻找一个最优的量化映射,使离散化误差最小化。PTQ没有反向传播不进行weight更新,前向只是用来统计,伪量化PTQ来说可有可无 [^3][^4]。 #### 应用场景 适用于模型已训练好,且对精度要求不苛刻的场景。当模型需要快速部署到边缘设备,且能够接受一定的精度损失时,PTQ是一个不错的选择。它可以在不进行大规模重新训练的情况下,快速将模型进行量化,减小模型大小并提升推理速度 [^3]。 ### QAT详细介绍 #### 原理 QAT量化感知训练,需要插入QAT算子且需要训练进行微调。流程为准备一个预训练模型,在模型中添加QAT算子,微调带有QAT算子的模型,将微调后模型的量化参数(q - params)存储下来,最后量化模型执行推理。在训练时采用伪量化,因为如果不使用伪量化,由于导数为0无法进行梯度更新。在训练图里插入FakeQuant节点,前向模拟量化误差,反向传播时STE把梯度直接传给FP32权重,让网络学会“抗量化”。其粒度方面,默认权重是per - channel,激活是per - tensor,最新研究中scale/zero - point亦可作为可学习参数进行端到端更新 [^2][^3]。 #### 应用场景 适用于精度敏感,可接受再训练的场景。当模型对精度要求较高,且有足够的训练资源(如完整训练集和GPU时间)时,QAT能够在量化的同时保证模型精度几乎无损,支持4 - bit超低比特量化 [^3]。 以下是PyTorch中QAT的示例代码: ```python import torch, torchvision, torch.quantization as tq model = torchvision.models.resnet18(pretrained=True) model.train() tq.prepare_qat(model, qconfig=tq.get_default_qat_qconfig('fbgemm')) opt = torch.optim.AdamW(model.parameters(), 1e-4) # 假设train_loader是训练数据加载器 for x, y in train_loader: loss(model(x), y).backward() opt.step() torch.jit.save(tq.convert(model.eval()), 'qat.pt') ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值