Knowledge Distillation(7)——Deep Model Compression: Distilling Knowledge from Noisy Teachers

本文探讨了DeepModelCompression技术,通过向教师模型输出引入基于噪声的正则化,提高了学生模型的鲁棒性和性能。这种方法模拟了多教师的知识蒸馏过程,通过对教师和学生的logit输出计算带有噪声的L2损失,以增强模型训练。实验表明,此方法在简单分类任务上显著提升了基准性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Deep Model Compression: Distilling Knowledge from Noisy Teachers

概述

给teacher的输出加入基于噪声的正则化,提高Student Robustness获得更好的performance
在这里插入图片描述
很粗糙的一种模拟multi-teacher的方式:
在这里插入图片描述

Method

与hinton最开始的KD有两个区别吧:

  1. 只用了一个logit output作为target,计算了一个新的L2 loss,且student没用hard label
    (为什么这样用作者居然也没阐述,不过作者不是第一个这么用的,引用的是‘ Do deep nets really need to be deep?’,可能这篇论文说过,但是这篇论文是2014的,在KD之前就有了,以后可以看看吧)
  2. 在logit output加入了noise扰动,以模拟multi-teacher
    在这里插入图片描述
    在这里插入图片描述
    作者采用对teacher and student’s logit output计算L2 loss:
    在这里插入图片描述
    加入了噪声到teacher的logit输出,所以新的L2 loss:
    在这里插入图片描述
    另外,只是对其中一部分sample进行噪声扰动:
    在这里插入图片描述

实验

teacher:
在这里插入图片描述
student:
在这里插入图片描述
结果:
(实验是和不在logit加噪声对比,看github别人复现,和KD效果差不多)
在这里插入图片描述
对于一个简单的分类网络,最好的从baseline21.94提升到了18.68
不过我怎么看着像个数据增强的trick一样。。。
毕竟同样的数据,在不同的epoch,经过teacher输出后,加入的random噪声不同,也有一定概率没有加入,这不和数据增强差不多嘛。。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值