Reasoning over Hierarchical Question Decomposition Tree for Explainable Question Answering

AI新突破:清华团队提出创新解释性问答框架,性能大幅提升

引言:解释性问答的挑战与创新

在人工智能领域,解释性问答(Explainable Question Answering,简称XQA)任务旨在不仅提供问题的答案,还要给出解释,让用户理解为何选择了该答案。这一任务对于检验智能系统的推理能力和可解释性至关重要。然而,现有的XQA方法大多集中于单一知识源的推理,例如结构化知识库或非结构化文本等。面对复杂问题,如何整合来自异构知识源的信息成为了一个挑战。

本文提出了一种创新的两阶段XQA框架——基于层次化问题分解树(Hierarchical Question Decomposition Tree,HQDT)的推理(Reasoning over Hierarchical Question Decomposition Tree,RoHT)。首先,通过构建HQDT来理解复杂问题的语义;然后,从根到叶递归地进行概率推理,整合不同树层级的异构知识,并考虑分解和回答的概率,以寻找最佳解决方案。通过在复杂QA数据集KQA Pro和Musique上的实验,证明了利用问题分解进行知识整合的有效性,以及我们的RoHT框架的优越性。

1. 解释性问答的挑战

传统的XQA方法面临两个主要限制。一是基于神经符号方法的形式表示只能在知识库上执行,但即使是最大的知识库也存在不完整性,限制了模型的召回率。二是基于分解的方法使用自由文本语料库作为知识源,但自然语言的多样性使得XQA变得困难。实际上,对于回答复杂问题,整合来自异构知识源的信息至关重要。

2. 创新的RoHT框架

为了应对这些挑战,我们提出了RoHT框架。通过构建HQDT来分解复杂问题,并在此基础上进行概率推理,从而整合来自知识库和文本的知识。RoHT框架的评估结果表明,它在整合知识库和文本的设置下显著提高了性能,相比现有的最先进方法,在KQA Pro和Musique数据集上分别提高了29.7%和45.8%的EM分数。

论文标题、机构、

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值