大语言模型时代,知识图谱构建全攻略!一篇文章带你轻松掌握!

大语言模型赋能知识图谱构建

摘要:知识图谱旨在将现实世界中的对象、概念及其相互关系,以图的形式进行有效组织。面对不断演变的真实世界信息,传统静态知识图谱在数据质量、准确性、复杂性、动态更新维护等方面面临挑战。

近期,大语言模型在语义理解和文本生成方面取得了卓越进展,其跨领域、跨模态、跨任务的强泛化能力为知识图谱构建提供了新机遇。鉴于此,针对大语言模型在知识图谱构建中的研究进展进行综述。

首先,介绍知识图谱和大语言模型的基本概念以及两者融合的通用计算框架;

然后,围绕知识图谱的生命周期,深入分析和讨论大语言模型在知识抽取、知识融合和知识推理这3大关键环节的进展和挑战;

接着,从知识问答和检索增强生成系统剖析大语言模型驱动的知识图谱的应用成效;

最后,总结和展望大语言模型时代知识图谱构建的发展趋势,多角度探讨亟待研究的问题,为未来研究提供启示。

引言

知识图谱(KG)[1]是以图形式表示客观世界中的实体及其关系的知识库[2],由实体和关系组成。实体作为节点,表示真实世界中的物体或抽象的概念;关系作为边,表示实体间的联系。2012年谷歌首次提出了知识图谱的概念[3],随后广泛将其应用于问答[4]、推荐[5]和搜索[6]等多个下游任务。知识图谱的构建质量是智能系统效果的基础,直接影响推理的准确性、决策的可靠性、下游任务的应用效率等。

依赖于深度学习(DL)技术,从结构化和非结构化数据中提取三元组并形成图谱的构建方法[7-9],是大语言模型兴起前的主流手段,但是其结果多为静态图谱,泛化性、推理性、实时性和解释性均具有局限性,不足以支持知识的动态更新和跨场景迁移。

近期,以DeepSeek[10]、GPT-4[11]为代表的大语言模型(LLMs)在语义理解、上下文推理和文本生成方面取得了显著突破,展现出强大的跨领域、跨模态、跨任务的泛化能力,从而衍生了一系列融合大语言模型的知识图谱构建研究成果[12]。本质上,LLMs和KG均是存储和利用知识的一种方式。

形式上,前者通过网络参数隐式地存储知识,后者通过三元组显式地存储知识。其中: LLMs既能够完成场景复杂的生成任务,又可应用于开放域理解任务,在少样本和零样本场景内,知识表示能力甚至超过有监督模型[13]。

将LLMs用于知识图谱构建,首先,能够有效从多源异构数据中提取结构化知识并更新至KG中;其次,通过表征实体及其关系来推理补全或校正图谱内容,从而提升构建质量;再次,可从多种形式的用户查询中准确识别其意图,缩小召回范围,以提高知识检索的准确性[14-15]。LLMs以其出色的语言建模和推理能力,正在推动知识图谱构建进入新阶段。

值得注意的是,本文提到的LLMs,涵盖“预训练 + 微调”范式的预训练语言模型(PLMs)[16]以及“预训练 + 提示”范式的大语言模型[17-18]。

近两年进入LLMs时代后,KG迎来新的发展机遇,学者们纷纷发表了综述文章。如: 曾泽凡等[19]从知识图谱的基本构成要素出发,梳理了基于PLMs的相关算法模型和方法的核心思路;李紫宣等[20]综述了代码大语言模型在KG中的应用,主要介绍了代码化的知识表示、知识抽取和知识推理;杨观赐等[21]重点分析了KG在搜索引擎优化、智能问答系统、具身智能系统等典型应用领域。

尽管这些综述均为近两年在大语言模型背景下发表,然而,鲜有从文档级、多模态、低资源、跨领域等具体任务不同场景的角度进行深入细致分析。鉴于此,在对已有综述进行深入剖析和思考的基础上,本文将视角拓展至整个大语言模型时代,围绕“大语言模型如何赋能知识图谱构建”这一核心问题,系统地梳理该方向的最新研究进展。

与已有综述相比,本文能够更加精准地呼应实际应用中对知识图谱构建多样化的任务需求,更加深入地挖掘LLMs对知识图谱构建的潜在优势。本文主要内容如下:

1)以知识图谱生命周期为视角,系统地梳理LLMs在知识抽取、知识融合、知识推理3个核心阶段中的应用进展,并深入剖析各阶段具体任务场景所面临的关键挑战;

2)探讨LLMs时代下KG的应用价值,首先分析KG在问答系统中与LLMs的协同构建和集成应用,然后聚焦于KG在检索增强生成框架中的关键作用和实践路径;

3)总结当前知识图谱构建所面临的主要挑战,进一步提出若干具有前瞻性的研究方向。

一、知识图谱定义及其构建任务

知识图谱通常采用三元组的形式,将现实世界的实体及其相互关系以结构化的方式进行存储,实体和关系分别视作节点和连接节点的有向边[22],可表示为G=(E,R,S)。其中:E为实体集合,R为关系集合,S为包含在R×E×E中的三元组集合。每个三元组通常表示一条事实,包括头实体、尾实体和关系。在特定情况下,“关系”亦称为“属性”,对应尾实体被视为属性值。

目前,公开的大规模知识图谱包括Freebase[23]、DBpedia[24]、Knowledge Vault[25]等。这些图谱广泛应用于多种人工智能任务中,成为认知智能的重要基础设施。知识图谱的构建流程包括知识获取、知识融合和知识推理[26]这几个核心阶段。在传统方法中,这一流程依赖人工标注或深度学习模型对语料进行信息抽取,存在知识更新滞后、泛化能力有限以及构建成本高等问题。

伴随LLMs的飞速发展,融合LLMs的知识图谱构建方法受到了广泛关注。LLMs具备强大的语言生成能力、上下文理解能力、零样本/少样本学习、跨领域知识整合等能力,面对海量非结构化文本数据,能够自动化地完成语言学知识[27]、世界知识[28]和常识知识[29]的实体识别以及关系抽取任务,同时,具备消除歧义、推理和更新功能,为高质量知识图谱的自动化构建提供了新路径。

图1为融合LLMs的知识图谱构建通用框架。该框架包括数据层、模型层和应用层: 数据层是KG构建的基础,涵盖表格等结构化数据,百科等半结构化数据以及文本、音频等多模态的非结构化数据;模型层充分利用LLMs的优势,将LLMs深入融合KG构建的全流程中,完成知识抽取、知识融合、知识推理等任务,显著提升了知识图谱的构建质量和自动化程度;应用层侧重于将融合后的LLMs和KG应用于更复杂的下游任务,如检索增强生成、智能问答、语义检索等,进一步实现知识驱动的智能决策和信息服务。

图1 LLMs和KG构建结合的通用框架[18]

二、大语言模型时代下知识图谱构建关键技术

本节将从知识抽取、知识融合和知识推理3个关键任务对融合LLMs的知识图谱构建技术研究成果进行梳理、剖析、总结和分析。

2.1 知识抽取遇上大语言模型

对于包含文本、图片、音频、视频等非结构化数据的互联网信息,从文本模态中抽取知识被称为信息抽取[30]。信息抽取包括4个子任务,即实体识别、属性抽取、关系抽取和事件抽取[31],其中属性抽取可看作实体与属性值间的一种名词性关系,能够转化为关系抽取。

LLMs时代下的实体抽取、关系抽取、事件抽取3个子任务范式渐渐由判别式过渡到生成式[32]。核心思想为给定一段输入文本,包含 个标记词序列X=[x1,x2,…,xn]、一个提示 、目标序列Y=[y1,y2,…,ym],目标是最大化条件概率,如下所示:

其中:为LLMs中的参数,允许冻结或训练;在X上附加额外提示P,以增强LLMs对特定任务的理解能力。整体任务框架如图2所示。

图2 知识抽取任务框架

2.1.1 实体抽取

实体抽取,亦称为命名实体识别(NER),旨在从文本中识别出实体的指称项,并标记类别,是知识图谱构建和信息抽取的基础。最早期的实体抽取方法多依赖于规则和统计模型[33],随后为提升实体边界定位的精度和复杂文本的识别效果,如CNN-BiLSTM-CRF[34]、ALL-CNN[35]、BiLSTM-ATT-CRF[36]等深度学习模型及其改进模型架构[37]被提出。

尽管如此,面对高准确度要求和复杂情境下,传统深度学习方法依然面临着一定的局限性,尤其是在精细化的实体识别和复杂的上下文理解方面,表现尚未达到理想状态。伴随LLMs的广泛应用,实体抽取技术迎来了新一轮的创新和突破。

对于实体类型预测任务,Yuan等[38]提出了生成式实体分类范式,引入了课程学习思想,依靠课程对实体类型粒度以及异构数据的理解自我调整进度,从而使得PLMs生成高质量的细粒度实体类型;Feng等[39]提出了CASENT方法,通过约束搜索生成多种候选实体类型,采用校准方法将预测类型的序列概率转化为置信度分数;此外,GPT-NER框架[40]以及开放域信息抽取的学生模型[41]等,均利用语言模型学习丰富的知识,减少了实体类型预测误差。

对于少样本或零样本任务,Zhang等[42]提出的2INER框架通过引入指令微调和辅助任务,有效增强了实体类型的表征能力;同时,少样本多模态NER结构[43]、OADA方法[44]、PromptNER方法[45]以及基于实体到文本的EnTDA增强方法[46],进一步优化了少样本和零样本任务的处理。

对于文档级任务,Amalvy等[47]针对Transformer结构在处理长文本时的局限性,通过检索相关上下文增强了文档级NER能力,并采用指令微调的LLMs生成了上下文数据集。

对于多模态场景,Li等[48]提出的PGIM框架利用ChatGPT作为隐式知识库,解决了多模态场景下文本预测的知识冗余问题,显著提高了实体预测的效率。

对于跨领域场景,Chen等[49]基于文本到文本生成式PLMs,提出了CP-NER以调整协作域前缀,解决了跨领域实体类型间可能存在的不匹配问题。

对于低资源场景,Chen等[50]利用轻量级微调范式;Cui等[51]通过知识迁移有效提升了实体识别性能;Wang等[52]提出的多任务指令生成框架,通过引入实体抽取和实体分类辅助任务,进一步增强了实体识别的效果。

对于嵌套和非连续实体的场景,Yan等[53]将NER任务统一表示为实体跨度序列生成问题,提出了新的实体表示法;Zhang等[54]通过去噪增强方法进一步优化了实体识别;Xia等[55]发现生成式NER结构易产生偏差,从而引入了对比损失来解决这一问题;最新的研究中,DiFiNet方法[56]从捕捉实体差异和减少非实体噪声两方面提升了嵌套实体边界的敏感度。在ACE04、ACE05和GENIA三个基准数据集上的实验结果表明, 1分别达到了88.45%、88.94%和81.87%,为解决嵌套NER任务中的边界不敏感问题提供了新思路。

这份完整版的大模型 AI 学习和面试资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

在这里插入图片描述

综上,表1对近4年实体抽取领域的代表性工作进行了详细对比。借助LLMs的生成范式,实体抽取任务在处理复杂任务时取得了显著进展。与此同时,LLMs仍然存在一些局限性,如可解释性不足[13],模型决策过程难以透明化;其训练数据可能存在偏差,需要通过预处理或数据增强来缓解噪声影响。随着LLMs的进一步应用和优化,其在实体抽取领域的潜力仍然有待深入挖掘和扩展。

表1 实体抽取代表性工作及其分析

2.1.2 关系抽取

关系抽取(RE)旨在识别两个或多个实体间存在的特定语义联系。基于深度学习的方法[57-58]分为流水线和联合学习,克服了传统特征工程的局限,但是,未有效解决关系多义性和重叠问题。随着LLMs的引入,关系抽取迎来了突破性进展。

针对流水线方式可能导致错误传播问题,Cabot等[59]将关系三元组表示为文本序列,引入了自回归生成式模型,以端到端的形式有效抽取了200余种关系类型。

针对文档级场景中长距离关系表征困难的问题,Huang等[60]将其转化为模板生成问题,有效捕捉了跨实体依赖关系,并利用标签语义避免识别 元关系,降低了计算复杂度。2024年发表的REIC方法[61]首次提出了基于强化学习的句子选择模块,在长文档中通过迭代选择关键句子并结合强化学习优化过程,更好地捕捉了实体对之间的复杂关系。

针对数据中NULL示例关系定义归类错误的问题,Wan等[62]提出了GPT-RE模型,其在演示中添加了特定任务的实体表示和真实样本诱导的逻辑推理,以弥补LLMs与全监督模型的性能差距。

针对无监督关系抽取任务难以挖掘出潜在的、未知的关系类型问题,Wang等[63]提出了对比学习策略;Zhang等[64]提出了LLMaAA方法,探索LLMs生成训练数据的可能性,提升了关系类型的预测准确性。

针对零样本/少样本关系抽取中大量预定义类型的关系类型干扰LLMs识别未定义类型的问题,Li等[65]引入了思维链来改进RE框架;Zhang等[66]提出了QA4RE框架,将RE问题与问题解答(QA)相结合;Xu等[67]基于GPT-3.5进一步提出了任务相关指令和模式约束数据生成。

表2详尽展示了近4年相关代表性方法的贡献和局限性,揭示了LLMs克服深度学习时代面临的难题,并在常用数据集上实现了性能的显著提升。得益于LLMs在语义理解和上下文感知方面的进步,RE任务获得新的推动力,但是同时也面临着新的挑战,特别是在实体间弱相关性问题上。此外,其黑盒特性易造成生成结果的可解释性较差,这可能会导致特定领域关系抽取的性能下降。在资源有限的情况下,LLMs缺乏对于领域的深层理解。

表2 关系抽取代表性工作及其分析

2.1.3 事件抽取

事件作为现实世界中的动态过程,具备时间、地点以及参与者等固有属性,其发生源于特定动作的执行或系统状态的转变。事件抽取(EE)旨在精准识别并提取用户关注的事件信息,并以结构化的形式呈现。此过程不仅涉及对文本中事件要素的识别,还包括对事件类型、属性以及参与者的抽取。通过该过程,能够系统理解和描述事件的结构和内涵,为文本挖掘、知识图谱构建等方向提供有力支持。如今,随着LLMs的突破,事件抽取已进入一个更先进的发展阶段。

在事件检测(ED)中,LLMs与小语言模型(SLM)的结合[68],充分利用提示策略,解决SLM难以处理的样本,对于构建事件抽取器有较大优势。面对事件类型多样和标注数据稀缺的挑战,Cai等[69]提出了自动化数据生成方式,构建了涵盖3000多种事件类型的数据集,微调后的LLaMA-2-7B模型在零样本事件检测中超越了GPT-3.5-Turbo等大语言模型,取得了显著的性能提升。这验证了所提出方法为知识图谱构建中事件检测提供了高效解决方案。

在事件论元抽取(EAE)中,现有的深度学习方法易忽视不同论元间的相关性。由此,Ma等[70]提出了PAIE模型,利用对抽取目标的及时调整来发挥PLMs的最大优势;Luo等[71]基于扩散模型创建了首个端到端的Zero-shot事件论据生成提示方法;Wang等[72]发现结构化代码能够与语义结构形成互译,因此,将事件论元抽取重构为代码生成问题,以充分利用基于文本和代码混合训练的LLMs;此外,Zhang等[73]引入了HMPEAE的新模型,解决了统一类型论据间的语义差异和不同类型论据差异,在WikiEvents数据集上 1值达到72.1%,结果达到了以往研究的最好效果。

然而,低资源情况会限制事件抽取的效果。对此,Zhao等[74]提出了基于演示增强的模式引导生成方法,从两方面提升抽取效果: 1)针对事件抽取提出了基于演示的学习范式,将其转换为演示来揭示抽取过程,进而充分利用标注数据;2)将事件抽取表述为基于模式提示的文本生成任务,从而利用标签语义来推动知识迁移。为降低成本,Ma等[75]提出了一种名为STAR的数据生成方法,进而发现LLMs对于低资源事件抽取的性能提升显著。

伴随研究深入,一些学者逐步将事件抽取视为一种提示驱动的序列生成问题。如: Lu等[76]提出的生成范式Text2Event,Liu等[77]提出的基于动态前缀的生成式事件抽取方法,Pang等[78]提出的指南学习框架。最为典型的是Liu等[77]提出的GTEE-DynPref,旨在解决生成式方法所面临的次优提示和静态事件类型信息的挑战,该方法通过集成上下文信息和类型特定的前缀,以学习上下文特定前缀。

综上,表3整理了近期事件抽取的代表性工作,分析得出:

表3 事件抽取代表性工作及其分析

1)LLMs在事件检测、事件论元提取、低资源事件抽取等子任务中展现出更好的性能;

2)将事件抽取视为生成问题,对抽取效果有显著提升。然而,尽管LLMs拥有丰富的先验知识,其直接应用仍然面临挑战,如必须符合严格的输出格式规范[79]。详细挑战以及未来展望将在第4节进行阐释。

2.2 知识融合遇上大语言模型

知识融合是对不同来源的数据、不同表示结构的知识进行融合,是对知识图谱进行补充、去重、更新的有效手段。由于数据来源非常广泛,质量也会参差不齐,关注重点也不尽相同。因此,不同知识图谱存在多样性和异构性,而知识融合是解决知识图谱异构问题的有效途径,任务示例如图3所示。LLMs在知识融合任务中扮演着重要角色,采用多领域知识整合、信息汇总和提炼、实时知识更新等能力促进信息的互通和创新。根据融合的对象,将从LLMs时代下的本体融合和实例融合两方面进行详细评述。

图3 知识融合任务示例

2.2.1 本体融合

本体映射和本体集成是解决本体异构的通用方法[80]。来自不同信息源的异构本体可用两种方式进行融合:

1)本体间建立映射规则,即本体映射;

2)多个本体合成统一本体间交互,即本体集成。

最新研究中本体融合主要利用LLMs获取本体的向量表示,并将语义相似度计算结果作为本体融合的依据。

He等[81]针对传统本体对齐系统性能较低的问题,提出了一种名为BERTMap的新型本体对齐系统,通过比较不同知识图谱中的全部文本概念,复杂度达到了平方级别,成本较高;

随之,Hertling等[82]首先使用预训练的句子编码器,生成匹配的候选句子,然后使用经过校准的基于Transformer的交叉编码器生成了最佳候选句;Amir等[83]提出了Truveta Mapper ™框架,利用多任务模型,以零样本、统一式、端到端的方式在多个本体间进行对齐;

随后,Wang[84]发现前人工作中并未考虑运行时的延迟以及端到端框架内不同图结构的问题,进而引入了一种新颖的自监督学习本体匹配框架LaKERMap,充分利用了概念的上下文和结构信息;Schneider等[85]提出了自然语言导向的本体对齐模型,以处理本体的语义和图形结构;

此外,事件本体为现实世界中发生的事情提供了一个共享的、正式的规范,Guo等[86]基于FrameNet和Wikidata构建了一个事件本体对齐数据集,并提出了一种多视角事件本体对齐方法,利用描述信息和邻接信息以获得丰富的事件本体表示。

现有研究表明,利用LLMs的语义理解能力、丰富的语境知识,能够进一步提升本体融合的效果。然而,本体融合的语法、逻辑、表达能力不匹配、元语异构和概念化异构等问题并不能完全消解[87],仍需持续研究。

2.2.2 实例融合

实例融合是指将一个知识图谱内部或多个不同知识图谱间的实体实例、关系实例进行融合的过程,实体对齐(EA)是其主要手段。任务演示如图3所示。传统的实体对齐方法其有效性易受到有限的知识图谱数据和表示学习能力的限制。融合LLMs的实体对齐技术通常采用基于语义匹配的方法,将知识图谱中的名称、属性、描述等多维度的实例压缩为低维向量,计算实例向量间的相似度以判断两个实例间的语义关系。

在跨知识图谱的实体对齐中,Zhao等[88]提出了两种基于PLMs的实体对齐器,将序列间的关联概率表征为实体间的相似性;Jiang等[89]提出了框架ChatEA,将知识图谱结构翻译为LLMs可理解的格式,创新地结合LLMs来改进实体对齐。

在跨语言实体对齐中,Yang等[90]探究了如何应用深度学习中图卷积网络结合实体的多方面信息学习实体嵌入,然而,结果显示性能仅有87.1;而Tang等[91]采用了两种预训练多语言BERT模型来弥补跨语言差距;Zhang等[92]构建了用于跨语言实体对齐的新型关系感知图神经网络;Jiang等[93]提出了无监督跨语言实体对齐方法,结果达到了96.6,比Yang等[90]的方法提升了9.5.

在多语境实体对齐中,多数方法缺乏实体与关系间的全局交互,造成关键语义信息丢失。对此,Xin等[94]提出了一种知情多语境实体对齐模型,以全面捕捉关系、路径和邻域上下文,同时设计了推理方法,以通过嵌入相似度和实体关系交互来估计对齐概率。

在多模态信息的实体对齐中,Zhu等[95]提出了PathFusion,通过构建连接实体与模态节点的路径来表示多种模态以简化配准过程,以路径为信息载体,有效融合了来自不同模态的信息;Huang等[96]提出了PMF策略,通过为模态分配对齐相关性分数,逐步对齐不相关的特征,采用对比学习解决多个模态间的一致性问题。

表4对比了近期实体对齐的典型方法。进一步分析发现,利用LLMs识别不同语言中描述相同实体的等价关系,归纳实体间的语义模式和关系,从而获取更丰富的实体特征,以减少人工成本,对实体对齐的研究产生巨大影响。然而,LLMs的局限性也较为显著,即对大量的计算资源进行训练和推理,增加了实体对齐的复杂度。

表4 实体对齐典型方法及其分析

2.3 知识推理遇上大语言模型

知识推理的目标是通过推理的方式揭示出已有知识中的潜在信息。现实世界中的数据量是无比庞大的,知识图谱明显缺乏完整性,而对于知识图谱中某些缺失的知识难以直接进行填补。因此,通过已有知识推断出未知知识是重要途径,是知识推理的核心。

传统的知识推理可分为命题逻辑、描述逻辑、一阶逻辑以及高阶逻辑。Chen等[97]提出了KGDL方法,联合TransE与LSTM模型将实体描述的句子嵌入与三元组编码为实体描述,从而实现知识推理,这种深度学习推理本质上是一种映射,并不具备推理性,缺乏“归纳推广”的能力,难以实现更高维度的知识推理;

随后,Zhou等[98]提出的L2M将语言模型迈向了更复杂的推理;思维链(CoT)的开山之作[99]指出LLMs的常识推理能力赶超人类,数学逻辑推理能力显著提升,具备更佳的可解释性和可信性,进而LLMs的推理能力得到了更加深入的研究[100-101]。

最早利用LLMs处理文本问题并指导KG中的推理过程出现在Yasunaga等[102]提出的QA-GNN模型,通过弥合文本与结构信息间的差距,从而为推理过程提供可解释性;面对复杂的知识图谱推理任务,Choudhary等[103]提出了LARK方法,利用LLMs引导逻辑推理,实现了KG的推理任务;同样地,Wang等[104]将结构推理和语言模型统一在一个学习框架中,采用LLMs学习上下文表征来初始化结构空间,沿着语义表征空间对KG执行逐步推理从而确定答案。

为缓解KG中关系的不确定以及不同关系可能包含不同语义的局限,2024年最新的工作[105]在多链路查询方面进行了改进,在两个基准数据集上的实验验证了该方法超越了目前最先进的方法。

通过思维链技术,LLMs具备通用且灵活的推理能力,对更加复杂的KG逻辑推理任务有较明显的助力。然而,在多模态、多语言、垂直领域场景中,逻辑歧义、专业知识缺乏均可能会导致错误的提示[106]。因此,结合LLMs的知识推理研究是一个难点问题。

三、大语言模型时代下的知识图谱应用

知识图谱的出现显著提升了网络智能化水平,提供了高效的方式来表达、组织、管理和利用海量异构的动态数据,使得信息处理更贴近人类思维。通过构建知识图谱,可以更好地挖掘和利用网络中的信息,为智能系统的发展奠定基础。LLMs的引入进一步推动了知识图谱的应用发展[107-108]。本节将总结融合LLMs的知识图谱的代表性应用,重点综述目前应用最广的知识问答和检索增强生成。

3.1 知识问答

知识问答是知识图谱的核心应用之一,旨在通过解析用户的自然语言问题,准确识别其询问意图并检索相关信息,最终生成恰当的答案。如图4所示,LLMs作为实体关系提取器和答案推理器,与知识图谱相融合,搭建了知识问答框架。

图4 融合LLMs和KG的知识问答框架

LLMs作为实体关系提取器: LLMs在语言理解方面具有出色的能力,利用LLMs识别自然语言问题中提及的实体和关系,并在KG中检索相关事实,是一个具有前景的应用方向。如Yasunaga等[102]的QA-GNN方法、Zhang等[109]提出的基于LLMs的路径检索器以及Hu等[110]采用LLMs检测实体和关系在知识图谱中查询答案等,均表明利用LLMs进行实体链接和关系检测已显著提高了问答系统的性能。

LLMs作为答案推理器: LLMs具备直接生成答案的能力,在知识问答系统中能够对检索到的事实进行推理并直接生成理想答案。Xu等[111]和Yan等[112]利用外部知识库提取相关事实,解决了搜索答案时推理路径不一致问题。面对多跳问答任务和复杂问答任务,具有代表性的方法有UniKGQA模型[113]和RELMKG模型[114]。研究发现,LLMs作为答案推理器,在复杂知识问答结果的准确性上有了很大的进展。

在知识问答应用中,LLMs利用语言理解和生成能力,对简单问题直接检索生成答案,对复杂问题采用提示工程,结合KG中的关键信息,进行推理从而生成结果,具有出色表现。总体而言,融合LLMs的KG在知识问答中的应用展现了强大的语言理解和生成能力,但是仍然需要解决与多轮交互、一致性和生成内容安全性相关的挑战,以确保其广泛应用的可行性和安全性[18]。

3.2 检索增强生成

大语言模型的一大优势是能够从无标注数据中学习知识,并将这些事实以参数形式进行存储,然而,其存在下述问题:

1)可能过时的知识;

2)无法追踪的推理过程;

3)缺乏现实的知识存储结构;

4)易产生“幻觉”;

5)缺乏可解释性。

上述问题均易导致其在知识检索和推理的过程中产生偏差,降低结果的精确性。针对上述问题,将KG应用于LLMs中,成为一种很有前景的解决方案。

当前比较具有代表性的方法为检索增强生成(RAG),旨在通过语义相似度计算从外部知识库中检索到相关文本块,并将其与输入信息组合并反馈给LLMs,以增强LLMs[115]。通过引入外部知识,RAG系统可有效减少生成与事实不一致的内容,提高生成内容的可信度,解决幻觉[116-117]、知识时效性[118]等问题。

经多方验证的KG能够提供更精确的信息[119],将其与LLMs集成,能够显著增强RAG过程。这种协作方式有助于对齐现实世界的知识和文本向量空间。KG可作为检索数据源,不仅能够提高LLMs生成信息的质量,也能有效提升索引构建的质量[120]。具体而言,通过KG来构建文档的层次结构,以保持一致性。

由KG构建的索引具有两个优点:

1)能够描述不同概念与实体间的关系,有效减少模型产生“幻觉”的可能性;

2)将语义检索过程转换为适应LLMs理解的指令,提高知识检索的准确性,促进LLMs生成上下文一致的内容,从而增强RAG的整体性能。

如Wang等[121]引入KG在多个文档间构建索引,以挖掘文档内容与结构间的逻辑关系,有效解决了多文档背景下知识检索和推理的问题。因此,将KG集成到RAG系统具有较大的研究潜力。通过利用知识图谱中结构化和相互连通的数据,能够显著提高现有RAG系统的推理能力[121]。

四、挑战及未来展望

4.1 挑战

知识图谱作为重要的知识表征手段,自从LLMs涌现后与其进行了更深入地融合研究。然而,在展现出巨大潜力和应用价值的同时,仍然面临诸多挑战。

1)知识更新难。

从知识表示角度看,LLMs和KG本质上均为知识载体,面临相似的时效性和更新挑战。当前,剑桥大学团队指出现有技术仍然难以处理50万条规模的真实世界知识,正在研究采用知识编辑技术突破这一瓶颈。

在ICLR 2025的杰出论文中,Fang等[122]针对大语言模型存在的知识遗忘、文本生成质量下降等问题,提出了AlphaEdit方法,为解决知识更新中的模型稳定性问题提供了新思路。

然而,面对训练过程中的海量数据,知识更新过程中存在明显的时间差,幻觉、过时、领域信息缺少等问题,均可能影响知识图谱构建质量。因此,确保知识图谱持续反映最新的知识状态具有挑战性。

2)知识冲突。

针对知识图谱构建面临多源数据融合引发的知识冲突问题,目前,最新研究从不同角度提出了创新性的解决方案,如由香港大学、北京智源研究院、厦门大学和深圳中文大学联合提出的Micro-Act框架[123],将复杂知识分解为细粒度的推理步骤,在解决时序冲突和语义冲突方面表现出色。

然而,知识冲突的复杂性仍然需要从不同维度进一步探索,如:

① 事实一致性: 新知识应与现实世界相符,避免引入虚假或过时的信息;

② 逻辑一致性: KG中的实体及其关系应遵循逻辑规则,避免出现推理错误;

③ 语义一致性: 新知识应在概念上与已有知识保持一致,避免引入歧义。

尽管LLMs在处理非结构化文本方面表现卓越,但是在处理结构化知识时,仍然面临上述问题。

3)缺乏可解释性。

LLMs产生的知识可能缺乏解释性,降低了KG的可信度。其原因在于LLMs属于黑盒模型,推理过程往往是不透明的。

在将LLMs嵌入KG构建的过程中,可能因其黑盒特性而导致知识缺乏可解释性,降低KG的可信度和准确性。具体而言,LLMs的推理过程不透明,使得用户难以清晰理解知识图谱中实体、关系以及推理的逻辑。

此外,研究指出LLMs易出现“谄媚”行为[124],即为迎合用户偏好而牺牲知识的真实性,如模仿用户的错误或提供有偏见的反馈。尽管基于人类反馈的强化学习[125]尝试缓解此类问题,但是,其高昂的标注成本和人类标注者的主观性仍然制约着KG知识的解释性提升。

4)多语言多模态场景的KG构建。

传统知识图谱通常基于纯文本和图结构构建,而现实世界中的知识多源于图像、音频、视频等非文本模态数据,如何有效表征和融合这些数据成为知识图谱构建研究的重要挑战[126]。多模态大模型[127]的兴起为模态对齐提供了潜在方案,但是,如何有效弥合其与知识图谱间的差距仍是亟待解决的问题。此外,不同文化和语言背景下的知识可为知识图谱提供更丰富的信息,但是,跨语言知识表达的差异也给知识的对齐和融合带来了新的难题。

5)垂直领域KG构建。

从应用角度而言,通用KG构建和垂直领域KG构建在数据来源、知识粒度、建模方法以及与LLMs的融合方式方面存在显著差异,如表5所示。这些差异化的融合路径表明,垂直领域KG构建在未来交叉研究领域仍是一个挑战。

表5 通用KG与垂直领域KG及其与LLMs融合差异

综上所述,大语言模型时代下的知识图谱构建和应用仍然面临诸多挑战,在工业界和学术界的研究和实践中需要持续探索,以解决这些挑战。

4.2 未来展望

剖析上述挑战,本文展望未来,认为以下7个研究方向具有较大潜力和价值。

1)端到端的KG构建。

如图5所示,当前研究[130]尝试利用LLMs实现端到端的KG构建,这一方法不同于传统的多阶段管道模式。目前,Melnyk等[131]提出的端到端多阶段提取器,通过语言模型生成图节点,随后构建边关系,实现了从文本到KG的高效转换。

LLMs具备隐式知识编码能力[28],使得直接从模型中提取知识构建KG成为可能,尤其是在常识性KG构建中表现突出[29]。未来发展将向其他类型的通用知识图谱和领域知识图谱的构建进行扩增。

此外,LLMs可用于数据标注和增强[132],提升KG构建效率,特别适用于数据敏感或隔离的场景。尽管面临幻觉、知识准确性、知识更新的挑战,端到端的KG构建方法仍然在通用领域和特定领域知识图谱构建中展现出广阔前景。

图5 端到端KG构建框架示例

  1. LLMs理解KG结构。

当前,LLMs主要以非结构化文本为训练语料,缺乏对图结构数据的有效编码能力,限制其对知识图谱中显式知识和隐式语义的理解。此外,知识图谱规模庞大,难以将整个图谱线性化为适配于LLMs的输入指令,导致图谱结构以及关键语义信息的损失,给LLMs的图数据推理造成困难。

另一方面,利用LLMs优化知识图谱结构具有显著潜力[133]:

① 扩展实体描述;

② 提炼图谱的结构信息;

③ 深层理解实体关系。

因此,开发具备直接理解知识图谱结构能力的LLMs[134],对于推动图谱数据的深度语义解析具有重要意义。

  1. KG增强LLMs。

Pan等[18]对KG增强LLMs的预训练能力、推理能力和可解释性的经典方法进行了较为全面的总结。KG通过其结构化的存储机制,提供对知识来源、关系和更新过程的透明性和可追溯性,令其能够有效作为LLMs的补充训练资源,增强LLMs对复杂关系和深层次知识的解析能力,进而在精确性、透明度、专业性、一致性等重要方面弥补LLMs的潜在缺陷。未来探索KG对LLMs的知识推理、语义理解和文本生成等方面的增强机制将是一个潜在的研究方向。

  1. KG与LLMs协同。

已有研究[135]提出了GraphEval评估框架,旨在衡量LLMs与KG间的关联度。尽管二者具有明显的互补优势,但是,现有工作对其协同机制的探索较为有限。

利用KG的结构化知识表示信息和LLMs的上下文学习能力,构成高效协同系统。然而,为充分发挥该协同效应,需要引入多模态学习、图神经网络、智能体等前沿技术[18]。具体应用中,协同系统既可通过KG以知识驱动的方式对潜在数据进行检索,又能采用LLMs以文本驱动的推理对可能出现的新数据进行生成。二者相互验证,增强结果的可解释性。未来深入融合KG与LLMs,有望实现技术突破,并广泛应用于多种下游任务。

5)多模态KG构建。

多模态知识图谱通过对齐融合文本、图像、视频、声音等异构数据,具备更丰富的语义表示能力,是实现人机智能的重要路径。目前,构建方法主要采用两种策略: ① 从图像(images)到符号(symbols),采用知识图谱中的结构符号(如概念、实体)以标记图像;② 从符号到图像,即符号接地(symbol grounding),将KG中的符号信息链接到对应的多模态数据[136]。

近年来,多模态大语言模型的发展为此提供强大支持,提升了多模态知识图谱构建的准确性和效率,并推动了智能问答、内容生成以及推荐系统等场景的深入应用。此外,多模态知识图谱也面临动态更新、语义理解和推理、跨领域融合、开放式构建以及可解释性等关键挑战[137]。

6)垂直领域KG构建。

特定领域的数据包括结构化数据、半结构化数据以及大量非结构化文本、图像、音视频等,如何从这些日益多样化的异构数据中提取知识构建领域KG,是未来仍然需要考虑的基本问题。尽管在医学[128]和金融领域[129] KG构建小有进展,然而,垂直领域KG要与实际业务场景和应用需求紧密结合,距可扩展、可持续和可解释的领域KG还有一定距离。因此,未来KG构建仍然需要考虑与实际业务场景和应用需求紧密结合,持续探索特定领域的语义规则、本体模型和算法以及高效利用融合领域知识的LLMs的概括推理能力。

7)KG和具身智能。

LLMs在智能“涌现”的巨大突破,具身智能这一前沿领域逐渐受到广泛关注。该范式旨在研究于环境中具有实体的智能体如何通过与环境的交互来取得认知能力,学习并掌握新技能新知识。将LLMs作为智能体的核心决策模块,能够利用其强大的场景理解和推理能力辅助智能体认知世界、执行决策,如Voxposer[138]和PaLM-E[139]已在机器人路径规划以及多模态推理方面取得进展。

然而,LLMs在具身智能领域还未达到非具身智能领域的性能表现,可能原因有两个:

① 基座模型基于概率驱动的黑盒式参数化知识,更新慢且难以动态维护;

② 训练过程中缺乏现实世界链接,依赖高质量提示工程和去偏学习[140]。

而基于场景驱动的多模态知识图谱融合符号知识和参数知识的优势,在场景信息、可解释性方面与LLMs相辅相成[141],辅助智能体理解环境并做出合理决策,有望成为具身智能应用的重要支撑。

五、结论

本文聚焦于大语言模型时代知识图谱构建技术及其应用。

首先,概述了大语言模型与知识图谱融合的统一框架;

然后,围绕知识图谱生命周期,深入剖析了大语言模型在知识抽取、知识融合以及知识推理关键技术环节的研究进展;

接着,从知识问答系统和检索增强生成两个典型应用场景出发,系统地梳理了知识图谱在新范式下的实际应用价值;

最后,全面审视了当前研究所面临的挑战,并从多个视角探讨了未来的发展方向。

当前,基于大语言模型的知识图谱构建正处于快速发展阶段,相关平台和应用持续涌现,展现出强劲的研究和落地活力。随着知识图谱在提升大语言模型可解释性、增强知识可控性方面的作用日益凸显,其在迈向通用人工智能过程中的战略地位也愈发重要。

综上,本文旨在帮助读者系统把握大语言模型与知识图谱构建融合的国内外研究进展,分析其关键技术和应用趋势,并为未来研究提供方向指引,期望为学术界和工业界的相关从业者提供实质性的参考和启发。

六、如何学习AI大模型?

如果你对AI大模型入门感兴趣,那么你需要的话可以点击这里大模型重磅福利:入门进阶全套104G学习资源包免费分享!

这份完整版的大模型 AI 学习和面试资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

在这里插入图片描述

这是一份大模型从零基础到进阶的学习路线大纲全览,小伙伴们记得点个收藏!

请添加图片描述
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

100套AI大模型商业化落地方案

请添加图片描述

大模型全套视频教程

请添加图片描述

200本大模型PDF书籍

请添加图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

LLM面试题合集

请添加图片描述

大模型产品经理资源合集

请添加图片描述

大模型项目实战合集

请添加图片描述

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值