(二十八):Soft-Label Dataset Distillation and Text Dataset Distillation
- 出处:CoRR abs/1910.02551 (2019)
- 标题:软标签数据集蒸馏和文本数据集蒸馏
- 主要内容:数据集蒸馏,提出了软标签数据集蒸馏SLDD和文本数据集蒸馏TDD
Abstract
数据集蒸馏是一种通过学习少量包含大数据集所有信息的合成样本来减小数据集大小的方法。这有几个好处,比如:加速模型训练,减少能源消耗,减少所需的存储空间。目前,每个合成样本都被指定一个“硬”标签,而且数据集蒸馏目前只能用于图像数据。
我们建议:同时提取图像和它们的标签,从而为每个合成样本分配一个“软”标签(标签的分配)。对于一些图像分类任务,我们的算法比原始算法提高了2-4%的准确率。使用“软”标签还可以使经过提炼的数据集包含的样本比类更少,因为每个样本可以为多个类编码信息。例如,用10个蒸馏图像(每个类一个)训练一个LeNet模型,MNIST的准确率超过96%,如果只训练5个蒸馏图像,准确率几乎达到92%。
我们还扩展了数据集蒸馏算法,以提取序列数据集包括文本。我们证明了文本精馏在多数据集上的性能优于其他方法。例如,在IMDB情感分析任务中,模型仅使用20句精炼的句子就几乎达到了最初的准确性。
代码:https://github.com/ilia10000/dataset-distillation
关键词:数据集蒸馏,知识蒸馏,神经网络,合成
数据,梯度下降