EntGPT: Linking Generative Large Language Models with Knowledge Bases

828 篇文章

已下架不支持订阅

本文介绍了EntGPT,一种旨在通过实体消歧任务提升大型语言模型(LLM)事实正确性能力的方法。通过三步硬提示方法和指令调整,EntGPT在无监督微调的情况下提高了Micro-F1分数,与监督基线相比,在实体消歧和问答任务中表现更优。研究表明,增强实体知识对于改善LLM的幻觉问题和提高问答性能有益。

本文是LLM系列文章,针对《EntGPT: Linking Generative Large Language Models with Knowledge Bases》的翻译。

摘要

由于在训练和推理过程中缺乏事实核查和知识基础,大型语言模型(LLM)生成事实正确输出的能力仍然相对未被探索。在这项工作中,我们的目标是通过实体消歧(ED)任务来应对这一挑战。我们首先考虑提示工程,并设计了一种三步硬提示方法来探测LLM的ED性能,而无需监督微调(SFT)。总体而言,提示方法提高了Micro-𝐹1分,在某些情况下高达36%甚至更高,并且与现有的SFT方法相比,在10个数据集上获得了可比的性能。我们通过具有类似提示和响应的指令调整(IT)进一步提高了知识基础能力。与具有平均micro的监督实体消歧任务的几种基线方法相比,指令调整模型不仅实现了更高的micro-F1分数性能-𝐹1比现有的基线模型提高了2.1%,但在零样本设置下,在六个问答(QA)任务上也获得了更高的准确性。我们的方法同时适用于开源和闭源LLM。

1 引言

2 相关工作

3 方法

4 实验

5 实体消歧的个案研究

6 问题回答的案例研究(RQ4)

7 讨论

在这项工作中,我们描述了实体GPT模型和两种变体:基于提示的(EntGPT-P)和指令调优的(EntPGPT-I)。通过将大型语言模型生成的具体实体的自然语言提及与其在某些知识库中的对应实体联系起来,我们表明EntGPT方法可以减少幻觉。此外,我们还从大量的实

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值