Data Distillation: Towards Omni-Supervised Learning
https://zhuanlan.zhihu.com/p/33493383Introduction主要思想是用通过使用一个在大量已标记数据上训练过的模型在未标记数据上生成annotations,然后再将所有的annotations(已有的或者新生成的)对模型进行重新训练。作者将其思想同 G. Hinton, O. Vinyals, and J. Dean. 等人的Distilling the...
转载
2018-11-09 15:00:48 ·
936 阅读 ·
0 评论