
Distillation
文章平均质量分 76
每天都要深度学习
Machine learning and deep learning.
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
知识蒸馏(Distillation)相关论文阅读(1)——Distilling the Knowledge in a Neural Network(以及代码复现)
———————————————————————————————《Distilling the Knowledge in a Neural Network》Geoffrey Hintion以往为了提高模型表现所采取的方法是对同一个数据集训练出多个模型,再对预测结果进行平均;但通常这样计算量过大。引出一种模型压缩技术:Distillation;以及介绍了一种由一个或多个完整模型(full models...原创 2018-03-21 21:46:25 · 10569 阅读 · 11 评论 -
知识蒸馏(Distillation)相关论文阅读(2)——Cross Model Distillation for Supervision Transfer
知识蒸馏相关论文目录导读:Geoffry Hinton —— Distilling the knowledge in a neural networkSaurabh Gupta —— Cross Model Distillation for Supervision TransferAdriana Romero —— Hints for Thin Deep Nets—————————————————...原创 2018-03-27 21:14:59 · 3594 阅读 · 1 评论 -
知识蒸馏(Distillation)相关论文阅读(3)—— FitNets : Hints for Thin Deep Nets
知识蒸馏相关论文目录导读:Geoffry Hinton —— Distilling the knowledge in a neural networkSaurabh Gupta —— Cross Model Distillation for Supervision TransferAdriana Romero —— Hints for Thin Deep Nets—————————————————...原创 2018-03-28 00:13:03 · 6440 阅读 · 2 评论