小样本关系分类(原型学习):Better Few-Shot Relation Extraction with Label Prompt Dropout

Better Few-Shot Relation Extraction with Label Prompt Dropout

core idea

在小样本关系分类中,prompt信息是relation name是信息,这篇文章为了保持train和test的一致性,将train中的一些relation name信息删除掉了。(相反,我们提出了一种称为标签提示剔除的新方法,它在学习过程中随机剔除了标签描述)
在这里插入图片描述

Model

introduction中提到的:我们直接将文本标签和上下文句子连接起来,并将它们一起反馈给Transformer编码器(Vaswani等人,2017)。文本标签作为标签提示2,指导并规范Transformer编码器通过自我注意输出标签感知的关系表示。在训练过程中,我们随机丢弃了提示标记,以创造一个更具挑战性的场景,比如模型必须学会在有关系描述和没有关系描述的情况下工作。

较为简单和文章的工作相比。

Model structure

(1)通过远程监督,将知识图谱中的知识在维基百科数据上标注,形式用于pre_training的数据集。——对抗学习( the two sentences will be labeled as a positive pair if K defines a relation R such that (h1,t1) and (h2, t2) belongs to that relation. Sentences that do not form a positive pair will be sampled as negative pairs.)+掩码学习(mask entity spans with the special [BLANK] token with probability ρblank = 0.7 to avoid relying on the shallow cues of entity mentions.

(2)利用在pre-training训练好的模型,按照introduction中的思路训练。通过一个episode中的例子得到每个类型的原型表示,原型是由start entity和tail entity 组成,通过dot product得到最终的类型。
(For K-way-N-shot learning, we average the
relation representations of the K support instances
within one class to obtain the class prototype. The
dot product between the query instance and each
class prototype is then calculated and used as the
logit in the cross entropy loss)
在这里插入图片描述

Experiments

在具体实验中,还考虑了模型的迁移能力。
分析了在filter的维基百科中的模型为什么在fewrel1上好而在fewrel2上不好。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YJII

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值