20-CVPR-Distilling Knowledge from Graph Convolutional Networks
知识蒸馏知识蒸馏指的是模型压缩的思想,通过将预先训练的繁琐网络作为教师模型,知识蒸馏的目的是学习一个紧凑的学生模型,期望通过转移教师的知识来掌握教师的专业知识。KD在15-nipsworskshop-Distilling the knowledge in a neural network.被首先提出。20-CVPR-Distilling Knowledge from Graph Convolutional Networks摘要现有的知识蒸馏方法侧重于CNN,其中输入样本如图像位于网络域,并在很大程
原创
2021-09-25 11:45:24 ·
553 阅读 ·
0 评论