系列文章目录
文章目录
【阅读笔记】【知识蒸馏】Self-Knowledge Distillation with Progressive Refinement of Targets
阅读笔记,非全文翻译
问题
- KL散度
Abstract
- 提出了一个简单有效的正则方法:Progressive self-knowledge distillation (PS-KD),在训练过程中蒸馏自己的知识。
- 一个模型既是教师,也是学生,即自己教自己。
- 训练目标是由ground-truth和模型自己之前预测的结果组合而成的
- 除了提升accuracy准确率,PS-KD还对calibration等指标有帮助
- 开源代码
Introduction
- 标签平滑LS的问题:有无更有效的方法来平滑标签,以获得更informative的标签
- 作者提出PS-KD,从模型自身中蒸馏出知识来软化标签,再训练自己
- 即使教师不如学生,学生也可以被加强
- PS-KD可以被用在任意监督学习上,只要他的方法是使用groundtruth作为硬标签
相关工作
- KD是用更大更好的网