【论文阅读】Self-Knowledge Distillation with Progressive Refinement of Targets

系列文章目录



【阅读笔记】【知识蒸馏】Self-Knowledge Distillation with Progressive Refinement of Targets

阅读笔记,非全文翻译


问题

  1. KL散度

Abstract

  • 提出了一个简单有效的正则方法:Progressive self-knowledge distillation (PS-KD),在训练过程中蒸馏自己的知识。
  • 一个模型既是教师,也是学生,即自己教自己。
  • 训练目标是由ground-truth和模型自己之前预测的结果组合而成的
  • 除了提升accuracy准确率,PS-KD还对calibration等指标有帮助
  • 开源代码

Introduction

  • 标签平滑LS的问题:有无更有效的方法来平滑标签,以获得更informative的标签
  • 作者提出PS-KD,从模型自身中蒸馏出知识来软化标签,再训练自己
  • 即使教师不如学生,学生也可以被加强
  • PS-KD可以被用在任意监督学习上,只要他的方法是使用groundtruth作为硬标签

相关工作

  • KD是用更大更好的网
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值