Self-training Improves Pre-training for Natural Language Understanding,NAACL2021

本文探讨了一种半监督学习方法——SentAugment,用于利用大量无标签数据增强有标签数据。通过创建大规模无监督句子库,计算任务特定的查询嵌入,从网络中检索相关句子。使用预训练的Transformer编码器优化相似句子的余弦相似度,然后对下游任务的句子进行增强。实验表明,这种方法可以与self-training和知识蒸馏结合,有效提升自然语言理解任务的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在这里插入图片描述
本文研究了半监督学习中通过自监督训练利用非标记数据的一种方法。具体来说,引入了SentAugment,这是一种数据增强方法,它从有标签的数据中计算特定于任务的查询嵌入,从从网络上爬取的数十亿个无标签的句子库中检索句子(/(ㄒoㄒ)/~~果然是Facebook AI才配做的工作啊)。与以前的半监督方法不同,本文的方法不需要域内无标记数据,因此更普遍适用(我觉得咋不太实用呢,主要是数据量太大了穷逼应该用不起吧?)。
其实本文的思路很简单,捋一遍论文就知道了。

Approach

总体的结构图如图所示:
在这里插入图片描述

Large-scale sentence bank

本文的方法依赖于一个大规模的无监督句子语料库,也就是摘要中提到的上亿条数据【1】。该句子嵌入空间不依赖于下游任务,将用于检索与特定任务相关的句子库子集。换句话说

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

五月的echo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值