(二十八):Soft-Label Dataset Distillation and Text Dataset Distillation

本文介绍了数据集蒸馏技术的扩展,包括软标签数据集蒸馏(SLDD)和文本数据集蒸馏(TDD)。SLDD通过学习“软”标签,即每个样本对应多个类别的概率分布,提高了数据集蒸馏的性能。这种方法在MNIST数据集上实现了超过96%的准确率,只需10张蒸馏图像。TDD则将数据集蒸馏应用到文本数据,证明在多个文本任务上性能优越。实验表明,SLDD和TDD可以有效地减少所需的数据量,同时保持或提高模型的准确性,为深度学习模型的训练和优化提供了新的思路。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • 出处:CoRR abs/1910.02551 (2019)
  • 标题:软标签数据集蒸馏和文本数据集蒸馏
  • 主要内容:数据集蒸馏,提出了软标签数据集蒸馏SLDD和文本数据集蒸馏TDD

Abstract

数据集蒸馏是一种通过学习少量包含大数据集所有信息的合成样本来减小数据集大小的方法。这有几个好处,比如:加速模型训练,减少能源消耗,减少所需的存储空间。目前,每个合成样本都被指定一个“硬”标签,而且数据集蒸馏目前只能用于图像数据。

我们建议:同时提取图像和它们的标签,从而为每个合成样本分配一个“软”标签(标签的分配)。对于一些图像分类任务,我们的算法比原始算法提高了2-4%的准确率。使用“软”标签还可以使经过提炼的数据集包含的样本比类更少,因为每个样本可以为多个类编码信息。例如,用10个蒸馏图像(每个类一个)训练一个LeNet模型,MNIST的准确率超过96%,如果只训练5个蒸馏图像,准确率几乎达到92%。

我们还扩展了数据集蒸馏算法,以提取序列数据集包括文本。我们证明了文本精馏在多数据集上的性能优于其他方法。例如,在IMDB情感分析任务中,模型仅使用20句精炼的句子就几乎达到了最初的准确性。

代码:https://github.com/ilia10000/dataset-distillation
关键词:数据集蒸馏,知识蒸馏,神经网络,合成
数据,梯度下降

1. Introduction

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Laura_Wangzx

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值