
迁移学习
星竹紫兰
绿色氧
展开
-
知识蒸馏:大神Hinton《Distilling the Knowledge in a Neural Network》论文笔记 2015
知识蒸馏:《Distilling the Knowledge in a Neural Network》 2015论文第5部分:在一个特大的数据集上训练一个特殊的网络集成1.问题:网络识别问题2.训练过程2.1通用模型:2.2专有模型:2.2.1专有模型的训练集构造过程2.2.2训练专有模型3.测试过程4.结果15.结果2论文第5部分:在一个特大的数据集上训练一个特殊的网络集成1.问题:网络识别问题前提:训练集JFT,有约1亿个图片。谷歌有个基线模型(Google’s baseline model),原创 2020-09-14 20:18:31 · 1704 阅读 · 0 评论 -
2020知识蒸馏 《Channel Distillation: Channel-Wise Attention for Knowledge Distillation》论文笔记
论文笔记《Channel Distillation: Channel-Wise Attention for Knowledge Distillation》知识蒸馏2020论文地址:[https://arxiv.org/abs/2006.01683](Channel Distillation: Channel-Wise Attention for Knowledge Distillation, Zaida Zhou, Chaoran Zhuge, Xinwei Guan, Wen Liu, 2020)原创 2020-09-18 11:05:46 · 2721 阅读 · 1 评论