- 博客(13)
- 收藏
- 关注
原创 【学习笔记】Distilling the knowledge in a neural network
要提高机器学习算法的性能,一个方法就是在同一个数据上训练许多不同的模型并平均预测,但是使用这种a whole ensemble of models(集成模型)是笨重的,需要的计算成本很高,无法部署带大量的用户。对此,有研究表明,将集成模型中的知识压缩到一个易于部署的小型的单个模型是可行的,文章也基于此展开。
2024-07-29 16:26:39
1851
1
原创 【论文笔记】Do Deep Nets Really Need to be Deep?
Do Deep Nets Really Need to be Deep?
2024-07-29 16:26:03
1211
1
原创 【学习笔记】知识蒸馏(Knowledge distillation)为什么应用在推荐系统中?它有什么作用呢?
快速了解knowledge distillation在推荐系统中的作用
2023-10-30 22:04:08
406
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅