本文是LLM系列文章,针对《Small Language Model Is a Good Guide for Large Language Model in Chinese Entity Relation Extraction》的翻译。
摘要
最近,大型语言模型(LLM)在关系提取(RE)任务中取得了成功,尤其是在小样本学习中。RE领域的一个重要问题是长尾数据,而目前使用LLM方法对这个问题没有太多关注。因此,在本文中,我们提出了SLCoLM,一个模型协作框架,以缓解数据长尾问题。在我们的框架中,我们使用“训练指南预测”策略来结合预训练的语言模型(PLM)和LLM的优势,其中特定任务的PLM框架充当导师,将任务知识传递给LLM,并指导LLM执行RE任务。我们在一个富含关系类型的RE数据集上的实验表明,本文的方法有助于长尾关系类型的RE。
1 引言
2 相关工作
3 方法
4 实验
5 结论
在本文中,我们提出了一种模型协作方法来解决关系数据集中的长尾问题,以及领域数据集中不同关系类型带来的挑战。