量化
参考链接: 闲话模型压缩之量化(Quantization)篇.
前言
为了弥补算力需求与供给的鸿沟,近几年来模型压缩成为了业界的热点之一。模型压缩又可细分为多个子方向。之前在《浅谈端上智能之计算优化》中有过一些简单的论述,同时在《闲话模型压缩之网络剪枝(Network Pruning)篇》中更加具体地整理了些关于网络剪枝(network pruning)的东西,本文就再将目光放到另一类方法上-量化(Quantization)。模型量化可以带来多方面的好处:
计算效率提升:很多处理器整数计算指令都要比相应的浮点计算高效。以CPU为例,浮点运算指令的latency平均会长于对应的整数运算指令,早期的CPU尤其如此。对于FPGA来说,浮点运算就更麻烦了。而且乘法的复杂度通常与操作数bit-width的平方成正比,因此将表示精度降低可以有效降低复杂度。
内存和存储占用减少:量化对模型的『瘦身』效果可谓立杆见影,它所带来的好处是两方面的:其一,减少memory footprint。我们知道很多时候推理性能的瓶颈不在于计算而在于访存,在这种情况下提高计算密度会对耗时有显著的优化效果;其二,节省存储空间,减少应用的size,同时便于软件的升级更新。
减少能耗:我们知道功耗主要来自计算和访存两部分。一方面 ,以乘加运算为例,8位整型与32浮点相比能耗可有数量级的差异。另一方面,访存是耗电大户。假设原本只能放在DRAM中的模型经过量化能放入SRAM,那不仅提升性能,而且减少了能耗,简直完美。
业界方法
如何确定量化参数
前面的讨论还遗留下来一个灵魂拷问,即量化会带来精度损失,那怎么选取量化时所用参数(如scaling factor,zero point,clipping value)可以尽可能地减少对准确率的影响呢。量化误差来自两方面,一个是clip操作带来的,一个是round操作带来的。而这两者间是有trade-off关系的。总得来说,选取合适的量化参数是非常考究的问题,事实上大多数业界的研究正是为了解决这个问题。业界主要有如下几类方法,其实和之前network pruning中介绍的几类方法的精神是类似的。
基于统计近似的方法
对于均匀量化中的量化参数clipping value,除了手工设定之外,一个简单的做法就是统计下要量化的对象,取最大值和最小值。但这样的问题在于如果有outlier,就会使得clipping value的绝对值很大,从而影响要量化区间的精度。
2016年Stanford的论文《Convolutional Neural Networks using Logarithmic Data Representation》提出了一种非均匀量化方法,即将weight和activation在log域中进行表示,并给出了在该表示下将向量乘加用位运算实现的方法。它的clipping value是一个超参,通过少量数据tune出来的。文中指出相比线性均匀量化,这种方法对量化更加鲁棒。
2018年Intel的论文《Highly Efficient 8-bit Low Precision Inference of Convolutional Neural Networks with IntelCaffe》主要讨论了Intel优化版Caffe中对于8位精度推理的支持。它基于经典的线性量化建模,其中的scaling factor参数通过基于calibration数据集来统计量化对象的最大值来得到。
2019年上海科技大学与商汤的论文《Fully Quantized Network for Object Detection》提出基于percentile的activation clamping方法。它从训练集中采样一部分作为calibration set,然后在这个集合上进行模型推理并记录它的activation。假设activation为高斯分布,通过统计得到均值和方差,然后基于γ \gammaγ-th和( 1 − γ ) (1-\gamma)(1−γ)-th percentiles来进行weight clipping。
2020年得克萨斯大学和Google Brain的论文《Post-training Quantization with Multiple Points: Mixed Precision without Mixed Precision》提出multi-point quantization,使用低位数据的多个向量的线性组合来近似,而传统方法中使用单个低精度数的方式。该方法通过贪心选择来构建multi-point quantization,然后基于与输出的误差自适应地决定低精度点的数量。
基于优化的方法
让模型更容易量化
量化中的训练
混合精度
教程
如何改变文本的样式
强调文本 强调文本
加粗文本 加粗文本
标记文本
删除文本
引用文本
H2O 是液体。
210 运算结果是 1024.
插入链接与图片
链接: link.
图片:
带尺寸的图片:
居中的图片:
居中并且带尺寸的图片:
当然,我们为了让用户更加便捷,我们增加了图片拖拽功能。
如何插入一段漂亮的代码片
去博客设置页面,选择一款你喜欢的代码片高亮样式,下面展示同样高亮的 代码片
.
// An highlighted block
var foo = 'bar';
生成一个适合你的列表
- 项目
- 项目
- 项目
- 项目
- 项目1
- 项目2
- 项目3
- 计划任务
- 完成任务
创建一个表格
一个简单的表格是这么创建的:(默认居中)
项目 | Value | s |
---|---|---|
电脑 | $1600 | a |
手机 | $12 | a |
导管 | $1 | a |
设定内容居中、居左、居右
使用:---------:
居中
使用:----------
居左
使用----------:
居右
第一列 | 第二列 | 第三列 |
---|---|---|
第一列文本居中 | 第二列文本居右 | 第三列文本居左 |
SmartyPants
SmartyPants将ASCII标点字符转换为“智能”印刷标点HTML实体。例如:
TYPE | ASCII | HTML |
---|---|---|
Single backticks | 'Isn't this fun?' | ‘Isn’t this fun?’ |
Quotes | "Isn't this fun?" | “Isn’t this fun?” |
Dashes | -- is en-dash, --- is em-dash | – is en-dash, — is em-dash |
创建一个自定义列表
-
Markdown
- Text-to- HTML conversion tool Authors
- John
- Luke
如何创建一个注脚
一个具有注脚的文本。1
注释也是必不可少的
Markdown将文本转换为 HTML。
KaTeX数学公式
您可以使用渲染LaTeX数学表达式 KaTeX:
Gamma公式展示 Γ ( n ) = ( n − 1 ) ! ∀ n ∈ N \Gamma(n) = (n-1)!\quad\forall n\in\mathbb N Γ(n)=(n−1)!∀n∈N 是通过欧拉积分
Γ ( z ) = ∫ 0 ∞ t z − 1 e − t d t . \Gamma(z) = \int_0^\infty t^{z-1}e^{-t}dt\,. Γ(z)=∫0∞tz−1e−tdt.
你可以找到更多关于的信息 LaTeX 数学表达式here.
新的甘特图功能,丰富你的文章
- 关于 甘特图 语法,参考 这儿,
UML 图表
可以使用UML图表进行渲染。 Mermaid. 例如下面产生的一个序列图:
这将产生一个流程图。:
- 关于 Mermaid 语法,参考 这儿,
FLowchart流程图
我们依旧会支持flowchart的流程图:
- 关于 Flowchart流程图 语法,参考 这儿.
导出与导入
导出
如果你想尝试使用此编辑器, 你可以在此篇文章任意编辑。当你完成了一篇文章的写作, 在上方工具栏找到 文章导出 ,生成一个.md文件或者.html文件进行本地保存。
导入
如果你想加载一篇你写过的.md文件,在上方工具栏可以选择导入功能进行对应扩展名的文件导入,
继续你的创作。
注脚的解释 ↩︎