模型量化(Quantization)是一种用来减少模型大小和提高模型运行速度的技术。
默认情况下,模型使用32位浮点数进行所有预测计算,这也使得模型变得非常大。我们可以通过进行一些舍入操作,基本上达到接近正确的答案,这样可以在不损失太多精度的情况下,使模型变得更小。
具体而言,假设我们的模型参数都是从0到1的之间的数,如果用一个比特来储存,你只能储存两个数0和1, 如果增加一个比特,你就有4种方法来表示从0到1之间的范围:
| 比特 | 代表的值 |
| 00 | 0 |
| 01 | 0.33 |
| 10 | 0.66 |
| 11 | 1 |
值的间隔为0.33.
再增加一个比特,你就有8种方法来表示这个范围:
| 比特 | 代表的值 |
| 000 | 0 |
| 001 | 0.125 |
| 010 | 0.25 |
| 011 | 0.375 |
| 100 | 0.5 |

模型量化是一种技术,通过减少模型参数的精度来降低模型大小和提高运行速度。例如,使用8位或4位量化可能会导致一定精度损失,但能显著节省存储。FP16量化通常保持高精度,而INT4量化则可能损失更多,但现代策略已能有效控制这种损失。
最低0.47元/天 解锁文章
1万+





