论文阅读:Chain-of-Question: A Progressive Question Decomposition Approach for Complex KBQA

论文来源:ACL 2024 Finding

论文地址: 2024.findings-acl.283.pdf


背景:

KBQA任务通常包含两种范式用于解决复杂的KBQA:基于信息检索的方法和基于语义解析的方法。

基于信息检索的方法:构建一个特定于问题的子图来捕获相关信息,并根据问题的相关性对实体进行排序;

基于语义解析的方法将问题转换为符号逻辑形式,并查询知识库以获得答案。

基于语义解析的KBQA方法通常是根据原始问题推导出所有的子问题,并生成逻辑形式推理出答案,但是这类方法并不适用于需要根据前一问题的答案生成下一问题的情况,如多跳推理。


 创新点:

这篇论文则是采用渐进式问题分解方法,在分解过程中提供中间结果来指导后续的问题分解。利用LLM的推理能力和外部知识库来增强对问题的理解能力。

==》

① 通过少量样本提示LLM模拟渐进问题分解过程,并构建问题分解链。在这一过程中,模型会将原始问题分解成多个语义清晰的子问题,并逐步提供相应的参考答案。(分解的每个步骤都依赖于前面的结果)

② 根据相关候选模式(关系实体对)与问题的相似性来检索候选模式,以提高逻辑形式生成的准确性和可靠性。

③ 将问题分解链和模式作为辅助信息输入到PLM中,用于逻辑形式生成和答案预测,并允许预测的答案解决不可执行的问题。


先前直接使用LLM来回答KBQA问题的方法可能会产生较少的事实结果,因此集成语义解析方法非常重要,这篇论文是第一个利用LLM进行问题分解来帮助KBQA上下文中的语义解析的工作,利用LLM来逐步分解问题,并促进语义解析来解决复杂的KBQA。(该方法结合了LLM强大的推理能力和语义解析的事实准确性)

问题分解链的构建

每个子问题q_i的分解都考虑了前面步骤的分解结果,每个中间答案a_i都是根据其相应的子问题q_i推导出来的,问题分解链定义如下:

D = [SUBQ] q_1 [ANS] a_1 ... [SUBQ] q_m [ANS] a_m

 受CoT的启发,设计了一个提示使LLM能够模拟渐进分解过程,并构建问题分解链。如图3所示,提示以“Decompose the question”开始,并要求“The decomposition process is step-by-step using previous result”,这样可以使模型理解问题的逐步分解需求。为了使分解结果包含模式项,并便于在后续进行检索,提示LLM在分解过程中识别相关的关系和实体,最后,LLM将子问题和中间答案构建成分解结果,从中提取问题分解链。

模式项检索和模式选择 

 首先从知识库中检索几个候选关系和实体,然后进行联合关系分类和实体消歧,以进一步对模式项进行细分和评分,相关的模式选择是基于这些分数的。

为了确定给定问题的候选实体,使用了端到端的实体链接模型ELQ和FACC1项目实体提及映射,以获得top-l个候选实体;采用密集检索方法为每个关系选择相关性得分最高的前l个关系。

由于在检索到的候选实体之间存在模糊性,一个提及将检索到多个实体,因此在对生成的逻辑表单进行去规格化 期间,并不能确保提及和实体之间的1-1映射,为此,本文执行关系分类和实体消歧两个任务,两个任务相互加强,以选择正确的模式项。如图4所示,两个任务共享一个编码器,不同的任务使用不同的前缀。论文使用一个共享的T5编码器来或得每个输入的表示,然后将其输入到队形的网络中来完成这两个任务。

关系分类的目的是从基于问题q及其响应的问题分解链D获得的候选关系中选择正确的关系, 将前缀“Relation Classification”与q,D和关系r进行拼接,输入到T5编码器中,获得评分:

 然后计算二元交叉熵损失:

与关系分类任务类似,将实体消歧任务形式化为序列分类任务,将实体e的标签与其1跳邻接关系链接起来,形成一个语义增强的上下文“label_e|r_1|r_2|...”,为保持与推理的一致性,只链接从之前的关系分类任务中分类的细化关系,之后的操作与关系分类一致。

联合训练损失为:

 模式选择:

将KB中连接的关系实体对定义为模式,记为\left ( r,e \right ),模式建立在模式项的基础上,可以为后续逻辑形式的生成提供更准确更忠实的辅助信息。

首先,基于先前获得的候选关系和候选实体生成候选模式,为了以更细粒度的方式表示这些模式与问题的不同语义部分的相关性,将问题链D分解为多个子链D_1, D_2,...,D_m ,每个子链由一个问题及其对应的答案组成,对于每个模式P,根据以下公式得到其与所有子链的相关性得分。

 将每个模式与所有子链的相关性分数进行聚合,以获得最终的分数,表示其与问题的总体语义的对齐。

 最后根据候选模式的最终分数对其进行排序,并选择top-k模式作为后续生成逻辑形式的辅助信息。

联合逻辑形式的生成与答案预测 

 为了增强逻辑形式生成和解决不可执行的问题,论文提出将逻辑形式生成与答案预测相结合的方法。使用基于Transformer的共享seq2seq模型,如T5,并使用不同的前缀来指导模型执行单独的任务。具体来说,如图2所示,对于逻辑形式生成任务,添加一个前缀与问题q、问题分解链D以及top-k的模式拼接,构成输入:“Translate to S-expression: q |P_1|...|P_k|D”,将其输入到T5,损失函数如下:

 对于答案预测任务,与逻辑形式生成任务类似,添加前缀来构建输入:“Answer the question: q |P_1|...|P_k|D”,并采用上述公式计算损失。

联合逻辑形式生成和答案预测的最终损失如下:

在推理阶段,采用波束搜索来生成多种逻辑形式,并执行逻辑形式老获得知识库的答案。如果任何一种逻辑形式都不能执行,则使用答案预测任务生成的答案作为最终答案。通过这种方法,可以部分缓解不可执行的问题。

实验

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值