本文是LLM系列文章,针对《Multi-perspective Improvement of Knowledge Graph Completion
with Large Language Models》的翻译。
摘要
知识图谱补全(KGC)是一种广泛使用的方法,通过对缺失链接进行预测来解决知识图谱中的不完整问题。基于描述的KGC利用预训练的语言模型来学习具有名称或描述的实体和关系表示,这显示出有希望的结果。然而,基于描述的KGC的性能仍然受到文本质量和不完整结构的限制,因为它缺乏足够的实体描述,并且仅依赖于关系名称,导致次优结果。为了解决这个问题,我们提出了MPIKGC,这是一个通用框架,通过从各个角度查询大型语言模型(LLM)来弥补上下文知识的不足,并改进KGC,其中包括利用LLM的推理、解释和摘要功能来分别扩展实体描述、理解关系和提取结构。我们基于四个基于描述的KGC模型和四个数据集,针对链接预测和三元组分类任务,对我们的框架的有效性和改进进行了广泛的评估。
1 引言
2 相关工作
3 方法
4 实验
5 结论
在本文中,我们提出了MPIKGC,这是一个新的框架,它从三个角度研究通过查询LLM来提高KGs的质量:通过设计Chainof Thought提示符来扩展实体描述,通过设计全局、局部和反向提示符来增强对关系的理解,以及通过关键字摘要和匹配来提取结构数据。
我们在用于链接预测任务的WN18RR和FB15k237数据集以及用于三元组分类任务的WN11和FB13数据集上评估了MPIKGC。大量实验的结果表明,我们的方法比四个基于描述的KGC模型有了显著的改进。此外,额外的消融实验突出了将不同的增强方法相结合以

MPIKGC是一个通用框架,通过LLM查询来增强知识图谱补全。它通过扩展实体描述、理解关系和提取结构来弥补上下文知识的不足。在多个数据集上,MPIKGC显著提高了基于描述的KGC模型的性能。
订阅专栏 解锁全文
2420

被折叠的 条评论
为什么被折叠?



