Small Language Model Is a Good Guide for Large Language Model in Chinese Entity Relation Extraction

本文是LLM系列文章,针对《Small Language Model Is a Good Guide for Large Language Model in Chinese Entity Relation Extraction》的翻译。

小语言模型是大语言模型在汉语实体关系提取中的良好指导

摘要

最近,大型语言模型(LLM)在关系提取(RE)任务中取得了成功,尤其是在小样本学习中。RE领域的一个重要问题是长尾数据,而目前使用LLM方法对这个问题没有太多关注。因此,在本文中,我们提出了SLCoLM,一个模型协作框架,以缓解数据长尾问题。在我们的框架中,我们使用“训练指南预测”策略来结合预训练的语言模型(PLM)和LLM的优势,其中特定任务的PLM框架充当导师,将任务知识传递给LLM,并指导LLM执行RE任务。我们在一个富含关系类型的RE数据集上的实验表明,本文的方法有助于长尾关系类型的RE。

1 引言

2 相关工作

3 方法

4 实验

5 结论

在本文中,我们提出了一种模型协作方法来解决关系数据集中的长尾问题,以及领域数据集中不同关系类型带来的挑战。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值