
模型压缩
文章平均质量分 95
Shwan_Ma
模式识别小硕,向大牛看齐!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【模型压缩】知识蒸馏-Distilling the Knowledge in a Neural Network
这篇文章是Hinton的大作,采用了一个很特别的方式(知识蒸馏,KT, Knowledge distillation)来进行模型压缩。言而总之,就是预先训练一个大模型去调教小模型,使得小模型更够在应用端更好的跑起来。 文章地址:Distilling the Knowledge in a Neural Network, Hinton et al, 2015 为什么要采用知识蒸馏呢 作者认为对于分类模...原创 2019-03-15 22:37:42 · 2123 阅读 · 0 评论 -
【模型压缩】训练时量化--training aware quantization
本文来自谷歌CVPR2018的文章: Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference 代码已经在tensorflow中集成了 https://github.com/tensorflow/tensorflow/tree/master/tensorflow/cont...原创 2019-05-22 20:48:21 · 13077 阅读 · 1 评论