- 博客(1)
- 收藏
- 关注
转载 Data Distillation: Towards Omni-Supervised Learning
https://zhuanlan.zhihu.com/p/33493383 Introduction 主要思想是用通过使用一个在大量已标记数据上训练过的模型在未标记数据上生成annotations,然后再将所有的annotations(已有的或者新生成的)对模型进行重新训练。作者将其思想同 G. Hinton, O. Vinyals, and J. Dean. 等人的Distilling the...
2018-11-09 15:00:48
933
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人