本文是LLM系列文章,针对《Small Language Model Is a Good Guide for Large Language Model in Chinese Entity Relation Extraction》的翻译。
摘要
最近,大型语言模型(LLM)在关系提取(RE)任务中取得了成功,尤其是在小样本学习中。RE领域的一个重要问题是长尾数据,而目前使用LLM方法对这个问题没有太多关注。因此,在本文中,我们提出了SLCoLM,一个模型协作框架,以缓解数据长尾问题。在我们的框架中,我们使用“训练指南预测”策略来结合预训练的语言模型(PLM)和LLM的优势,其中特定任务的PLM框架充当导师,将任务知识传递给LLM,并指导LLM执行RE任务。我们在一个富含关系类型的RE数据集上的实验表明,本文的方法有助于长尾关系类型的RE。
小语言模型指导大模型:解决汉语实体关系提取中的长尾问题

订阅专栏 解锁全文
1203

被折叠的 条评论
为什么被折叠?



