文献精读——(第十一篇)Data-Free Learning of Student Network

一、文献梳理

1、文献背景

为解决下述问题,需要高效的,少样本或零样本的网络压缩方法。

  • CNN被广泛应用于CV任务,但需要大量计算资源支持,为满足移动计算需要进行神经网络的压缩
  • 在现实应用,数据集往往很难获取
  • 现有的零样本下的网络压缩,性能下降很多

2、研究成果

1)模型意义

  • 提出了一个有效的无数据训练的办法;
  • 有效的组合了GAN和教师-学生网络;
  • 设计了适合于这篇文章中的GAN模型的总损失函数;
  • 利用知识蒸馏将教师网络压缩为学生网络;
  • 对多个数据集和多个经典网络进行了实验以证明有效性。

2)实验

  • 实验一:(MNIST/HintonNet)+LeNet-5
  • 实验二:模型简化实验
  • 实验三:可视化结果
  • 实验四:CIFAR+ResNet
  • 实验五:CelebA+AlexNet
  • 实验六:扩展实验

二、基础知识(传统压缩方法)

1、数据驱动压缩方法

(1)奇异值分解

(2)剪枝、权重分层、哈夫曼编码

(3)相似神经元聚类

神经网络接收外界输入模式时,将会分为不同的对应区域,各区域对输入模式有不同的响应特征,而这个过程是自动完成的。其特点与人脑的自组织特性类似。导师学习网络。它通过自动寻找样本中的内在规律和本质属性,自组织,自适应地改变网络参数与结构。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值