LLMs+知识图谱 (KG),快速实现高效可靠的多步推理

今天分享的是由南京大学新型软件技术国家重点实验室与微软联合发布的一篇论文:

论文题目: Call Me When Necessary: LLMs can Efficiently and Faithfully Reason over Structured Environments。

论文链接: https://aclanthology.org/2024.findings-acl.254.pdf
代码链接: https://github.com/microsoft/Readi

一、介绍

近年来,大型语言模型(LLMs)在结构化环境(SEs)中的推理能力引起了广泛关注。针对大规模语言模型在结构化环境中推理的问题,现有研究通常采用两种主流方法:逐步推理和微调模型。

逐步推理方法通过逐步扩展推理路径与SEs交互,每一步都需调用LLM。这种方式能够缓解幻觉问题,但效率较低。例如,要回答“奥巴马的女儿是谁”这样的问题,逐步推理需要调用 LLM 至少两次——首先查询“奥巴马”的相关关系,然后从候选关系中选择“父亲”。

微调模型方法则通过使用标注数据训练模型,帮助其记忆环境并直接生成推理路径,虽然效率较高,但其输出结果无法保证能够在SEs上被验证。此外,微调方法依赖大量标注数据,在大规模SEs中,标注成本高昂且难以获取。

为了解决上述问题,本文提出了 Reasoning-PathEditing (Readi) 框架,该方法充分利用了LLMs的内在规划能力,并结合动态反馈机制,实现高效且可靠的推理。

Readi框架首先生成完整的推理路径,并在SEs中进行实例化;只有在实例化失败时才会触发路径编辑,从而减少不必要的LLM调用,显著提高推理效率。同时,Readi通过记录环境反馈(如出错位置、部分完成的实例和关联关系)来为路径编辑(修正)提供精准指导,提升推理的可靠性和效果。

实验结果表明,在KGQA和TableQA的五个多跳推理任务的综合实验中,Readi表现优于其他基于LLM的解决方案,并且超过了大多数微调方法。

二、方法

Readi是一种多跳推理框架,其在知识图谱(KG)上进行路径规划、实例化和问题求解。它的核心流程包括推理路径生成、推理路径实例化、推理路径修订,以及最终基于知识图谱的问答生成,上图展示了Readi的运行示例。下面将详细介绍每一步骤。

1. 推理路径生成

Reasoning Path Generation

目标: 利用LLM生成初始推理路径 §,为后续在KG上的实例化奠定基础。

方法:

  • 输入问题 (Q) 和主题实体 (n) 个。

  • 使用**思维链(Chain of Thought, CoT)**的方式生成推理路径 §,包含从每个主题实体出发的 (n) 个约束条件。

示例: 例如,对于问题“哪个国家与法国接壤并包含服务尼美根的机场?”,推理路径生成:

  • 从“France”出发,约束为“邻接的国家”;

  • 从“Nijmegen”出发,约束为“服务该城市的机场”及“包含这些机场的国家”。

2. 推理路径实例化

Reasoning Path Instantiation

目标: 将推理路径 § 的自然语言关系(NL关系)转化为KG中的关系,并找到符合约束的实体路径。

过程:

  • 关系绑定:

  • 将路径中的NL关系与KG中的关系模式绑定。

  • 使用BM25和Contriever从KG中检索出与NL关系语义相似的关系模式作为候选关系。

  • 示例:将“border”绑定为“adjoin, near_by, locations”等候选关系。

  • 路径连接:

  • 确定起始实体后,从KG中寻找符合候选关系序列的路径实例。

  • 若某个候选关系能够连接到当前实体,则实例化该关系;重复该过程,直至实例化完整路径。

  • 示例:对于图中的示例,首先需要检查KG中是否存在任何从“France”出发的路径实例,其中的关系依次匹配§中所有关系的绑定候选关系。具体而言,如果候选“adjoin, near_by, locations”中的任何关系连接到“France”(橙色粗体“adjoin”),将获得满足约束“[France] border”的实体,因此NL关系“border”在KG上实例化为“adjoin”。然后,对§中剩余的关系重复相同的过程,最终实例化整个路径

  • 实例化失败:
    如果某段路径无法实例化,例如没有候选关系能连接当前实体,则需要触发路径修订。

3. 推理路径修订

Reasoning Path Editing

目标: 在路径实例化失败时,分析错误原因并通过修订更新路径。

过程:

  • 错误摘要:

  • 分类错误类型,定位错误位置和相关信息:
    不相关NL关系:当前NL关系的候选KG关系均无法连接当前实体;
    空路径:推理路径不存在;
    路径以复合节点结束:实例化路径的最后一个节点是复合节点。

  • 如果实例化出错,检测错误位置、相关NL关系及当前结束的实体

  • 错误准备:

  • 收集修订所需信息:
    错误原因;
    部分完成的实例路径;
    当前结束节点附近的KG关系作为修订候选。

  • 路径修订:

  • ‍调用LLM基于问题 (Q) 和错误信息生成修订后的路径。

示例: 对与图片中的样例,在实例化“[France] border”时,路径以复合节点结束(原因iii)。生成修订信息:

  • 路径以复合节点结束

  • 部分完成的路径“France Compound Node”;

  • 修订候选关系“country”和“relationship”。

然后,LLM来根据问题Q和这些错误消息编辑前面的路径,生成路径[France] border→country。

4. 基于知识图谱的问答

QA Reasoning

目标: 在实例化推理路径 § 后,根据合并的KG实例以及问题生成答案。

过程:

  • 将每个路径(约束)实例的交集作为KG实例集合 。

  • 结合问题 (Q) 和 调用LLM生成答案。

示例

  • 对与图片中的样例,其KG实例路径包含:
    ((France, adjoin, Compound Node))
    ((Compound Node, country, German))。

  • 根据这些三元组推理得出: “邻接法国的国家是‘German’”。

三、总结

Readi采用模块化流程,结合LLM的规划能力与知识图谱的结构化数据,通过动态错误修订机制提高鲁棒性与效率,灵活应对多跳推理中的自然语言与结构化数据间的复杂挑战。这为LLMs在结构化环境中进行推理开辟了新的路径。

四、最后分享

AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。

学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。

这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。
在这里插入图片描述

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

在这里插入图片描述

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

在这里插入图片描述

4. 2024行业报告

行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

在这里插入图片描述

5. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

在这里插入图片描述

6. 大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

在这里插入图片描述

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方优快云官方认证二维码,免费领取【保证100%免费

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值