【模型压缩】知识蒸馏-Distilling the Knowledge in a Neural Network

这篇文章是Hinton的大作,采用了一个很特别的方式(知识蒸馏,KT, Knowledge distillation)来进行模型压缩。言而总之,就是预先训练一个大模型去调教小模型,使得小模型更够在应用端更好的跑起来。
文章地址:Distilling the Knowledge in a Neural Network, Hinton et al, 2015

为什么要采用知识蒸馏呢

作者认为对于分类模型来说,标签label提供的信息比较少,分类模型的目的就是将输入向量进行映射到类别中的一个某一点上。如果此时有一个训练好的大模型,也称之教师模型,可以采用知识蒸馏的算法模型将模型的输出(softmax输出),拿来作为小模型的另一个标签。此时,教师模型的输出可以作为soft target(区别于原始的label,hard target),此时相当于增加了分类模型的监督信息。从而使得小模型更好的泛化。
对于这一部分,作者也进行了一些解释。比如输入一张宝马车的图片,虽然不会分类成垃圾车(大概给这一类别的概率有1e-6),但是给胡萝卜的概率更低(1e-7)。因此这种soft target也能提供出包含分类模型的类间信息及类内信息。bmw车更像垃圾车,而不是胡萝卜。

这里附上知乎上各位大神的理解:
作者:Naiyan Wang
链接:https://www.zhihu.com/question/50519680/answer/136363665
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

这个问题真的很有意思,我也曾经花了很多时间思考这个问题,可以有一些思路可以和大家分享。一句话简言之,Knowledge
Distill是一种简单弥补分类问题监督信号不足的办法。传统的分类问题,模型的目标是将输入的特征映射到输出空间的一个点上,例如在著名的Imagenet比赛中,就是要将所有可能的输入图片映射到输出空间的1000个点上。这么做的话这1000个点中的每一个点是一个one
hot编码的类别信息。这样一个label能提供的监督信息只有log(class)这么多bit。然而在KD中,我们可以使用teacher
model对于每个样本输出一个连续的label分布,这样可以利用的监督信息就远比one
hot的多了。另外一个角度的理解,大家可以想象如果只有label这样的一个目标的话,那么这个模型的目标就是把训练样本中每一类的样本强制映射到同一个点上,这样其实对于训练很有帮助的类内variance和类间distance就损失掉了。然而使用teacher
model的输出可以恢复出这方面的信息。具体的举例就像是paper中讲的,
猫和狗的距离比猫和桌子要近,同时如果一个动物确实长得像猫又像狗,那么它是可以给两类都提供监督。综上所述,KD的核心思想在于"打散"原来压缩到了一个点的监督信息,让student模型的输出尽量match
teacher模型的输出分布。其实要达到这个目标其实不一定使用teacher
model,在数据标注或者采集的时候本身保留的不确定信息也可以帮助模型的训练。当然KD本身还有很多局限,比如当类别少的时候效果就不太显著,对于非分类问题也不适用。我们目前有一些尝试试图突破这些局限性,提出一种通用的Knowledge
Transfer的方案。希望一切顺利的话,可以早日成文和大家交流。 ?

知识蒸馏的方式

我们采用一个温度T对深度网络的输出进行蒸馏,重新改变原始的softmax输出,当给定logit时,我们重新计算概率q为:
q i = e x p ( z i / T ) ∑ j e x p ( z j / T ) q_i = \frac{exp(z_i / T)}{\sum_{j} exp(z_j / T)} qi=jexp(zj/T)exp(zi/T)
一般来说, 温度T设置为1,当T更高的时候,教师网络产生的soft target将会更软。
给定一个输入,其Hard Target为【0,0,1】, Soft Target为【0.001, 0.149, 0.85】
进行soft后,其结果可能会变成【0.1,0.3,0.6】。从而提供更多的类间信息

在训练过程中,一般来说会结合两种客观损失函数。一种是原来的hard target,即one-hot的label信息,cross entropy with correct labels。另一种是soft target,即对教师网络的输出采用相同的温度进行cross entropy。

匹配logits可作为知识蒸馏的一种特殊方式

给定 C C C 为soft target带来的loss(对教师和学生模型输出的logits进行cross entropy), Teacher网络模型和Student的网络模型的logits分别为 v i , z i v_i, z_i vi,zi,输出的softmax概率分别为 p i , q i p_i, q_i pi,qi
C = − ∑ j = 1 K p j l o g q j C = - \sum_{j=1}^{K} p_j log q_j C=j=1Kpjlogqj
其中:
p i = e x p ( v i / T ) ∑ j e x p ( v j / T ) p_i = \frac{exp(v_i / T)}{\sum_j exp(v_j / T)} pi=jexp(vj/T)exp(vi/T)
q i = e x p ( z i / T ) ∑ j e x p ( z j / T ) q_i = \frac{exp(z_i / T)}{\sum_j exp(z_j / T)} qi=

将神经网络中的知识进行提取,是一种将模型的信息转化为更为简洁和易于理解形式的过程。 神经网络是一种由许多神经元组成的复杂计算模型,它们通过学习和调整权重来解决各种问题。然而,神经网络通常具有大量的参数和复杂的结构,这使得它们难以解释和应用到其他领域。因此,我们需要一种方法来提取和总结神经网络中的知识,以便更好地理解和应用这些模型。 在进行神经网络知识提取时,有几种常见的方法。一种常见的方法是使用可视化技术,如热力图、激活图和网络结构图等,来可视化网络中不同层的活动模式。这些可视化技术能够帮助我们发现网络中的模式和特征,并从中推断出网络的知识。 另一种方法是使用特征提取技术,如卷积神经网络(CNN)的滤波器、自动编码器的隐藏层和循环神经网络(RNN)的隐状态等,来提取网络学习到的重要特征。这些重要特征可以帮助我们更好地理解网络学习到的信息,并将其应用到其他问题中。 此外,还有一种被称为知识蒸馏的技术,它通过训练一个较小的模型来提取大型模型中的知识知识蒸馏通过引入目标函数和额外的训练策略,使小模型能够学习到大模型中的重要知识,并在不损失太多性能的情况下将其应用到实际问题中。 总而言之,提取神经网络中的知识是一项重要任务,它能够帮助我们更好地理解和应用这些复杂的模型。通过可视化、特征提取和知识蒸馏等方法,我们能够从神经网络中提取出有用的信息,并将其应用到其他领域或解决其他问题中。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值