本文是蒸馏学习综述系列的第四篇文章,Knowledge Distillation and Student-Teacher Learning for Visual Intelligence: A Review and New Outlooks的一个翻译。
Knowledge Distillation and Student-Teacher Learning for Visual Intelligence
最新推荐文章于 2025-11-24 18:29:32 发布
本文全面探讨了知识蒸馏(KD)及其在视觉智能中的应用,包括从单一到多教师的蒸馏策略,无数据、小样本和跨模态学习的情况。还讨论了在线和无教师蒸馏,以及标签需求和无标签蒸馏的挑战。此外,研究了新学习度量、对抗学习和图表示在KD中的作用,并展望了未来的研究方向,如NAS、GNN和跨领域集成。

订阅专栏 解锁全文
5529

被折叠的 条评论
为什么被折叠?



