[深度学习入门]知识蒸馏

本文介绍了知识蒸馏的概念,该技术通过教师网络的soft targets指导学生网络学习,保留了类间相似度信息。知识蒸馏有助于模型轻量化,并使用温度T调整softmax输出的概率分布。损失函数包括学生网络与教师网络之间的蒸馏损失和学生网络与真实标签的softmax损失。文中提供了相关论文查找资源及代码参考。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

论文:Distilling the Knowledge in a Neural Network

相关论文查找网站:

1. Connected Papers | Find and explore academic papers 

2. https://paperswithcode.com/

3. 知识蒸馏在做什么?

soft targets的结果作为标签进行训练stduent model,增加了更多的信息(物体间的相似度):

知识蒸馏主要是将大模型轻量化,以教师网络的输出(即通过数据集学到的各类检测物间的概率,概率中包含类与类间的隐式关系,即各类物体间的相似程度)作为学生网络的输入,以供学生网络学习轻量化模型。

4. 如何蒸馏?

通过温度T进行蒸馏(T用来将各类物体间的相似度进行放大或缩小):

当T=1时,pi就是标准的softmax;随着T的增加,softmax函数的概率分布函数就会变得更加平缓,也就是将各类之间的相似度拉得趋近于相同,如下图所示:

 5. 损失函数:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值