初入神经网络剪枝量化4(大白话)

本文介绍了三种先进的深度学习量化技术:DSQ(Differentiable Soft Quantization)通过可微量化模拟round操作,减少量化误差;LSQ(Learned Step Size Quantization)提出动态调整的步长参数,改善权重和激活的量化效果;PACT(Parameterized Clipping Activation)引入可训练的激活函数PACT,优化ReLU的量化问题。这些方法旨在提升低比特量化神经网络的性能和精度。

二. 量化

 

简单介绍目前比较SOTA的量化方法,也是最近看的。

2.1 DSQ   Differentiable Soft Quantization:Bridging Full-Precision and Low-Bit Neural Networks

        本文的创新点主要在于引入了可微软量化的方法,来模拟近似量化过程。

        通俗来说也就是,传统的量化方法都是利用round来取整,这就导致了量化的不可微。我们一般的处理方法都是使用STE(Straight Through Estimator),也就是跳过对round的微分,直接让他等于1。

        这会存在什么问题?误差。尤其是当我们进行低bit量化时,误差就会非常大。所以,如果我们可以提出一种量化函数,可微的同时还可以无限靠近round函数,那就很好的解决了STE的问题。所以本文定义了一个可以模拟round函数的函数。

         具体推导这里不做过多讲解,因为比较复杂,笔者也没太搞懂。anyway,这是个可以训练的函数,通过不断训练可以更好的贴合我们的量化函数。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值