- 博客(2)
- 收藏
- 关注
原创 知识蒸馏之自蒸馏
Attention Distillation@TOCAttention Distillation in CVPR\AAAI (from 2021 to 2022)本文整理了AAAI2021/AAAI2022/CVPR2021中的注意力蒸馏类文章(强调feature-based knowledge distillation),后续可能会继续更新其他计算机视觉领域顶会中的相关工作,欢迎各位伙伴相互探讨。背景知识-注意力蒸馏1.定义:注意力蒸馏 (Attention distillation):用于把大网
2022-03-03 18:06:10
29385
2
原创 迁移学习相关概念区分
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar
2021-07-07 19:55:22
494
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人