AI新突破:清华团队提出创新解释性问答框架,性能大幅提升
引言:解释性问答的挑战与创新
在人工智能领域,解释性问答(Explainable Question Answering,简称XQA)任务旨在不仅提供问题的答案,还要给出解释,让用户理解为何选择了该答案。这一任务对于检验智能系统的推理能力和可解释性至关重要。然而,现有的XQA方法大多集中于单一知识源的推理,例如结构化知识库或非结构化文本等。面对复杂问题,如何整合来自异构知识源的信息成为了一个挑战。
本文提出了一种创新的两阶段XQA框架——基于层次化问题分解树(Hierarchical Question Decomposition Tree,HQDT)的推理(Reasoning over Hierarchical Question Decomposition Tree,RoHT)。首先,通过构建HQDT来理解复杂问题的语义;然后,从根到叶递归地进行概率推理,整合不同树层级的异构知识,并考虑分解和回答的概率,以寻找最佳解决方案。通过在复杂QA数据集KQA Pro和Musique上的实验,证明了利用问题分解进行知识整合的有效性,以及我们的RoHT框架的优越性。
1. 解释性问答的挑战
传统的XQA方法面临两个主要限制。一是基于神经符号方法的形式表示只能在知识库上执行,但即使是最大的知识库也存在不完整性,限制了模型的召回率。二是基于分解的方法使用自由文本语料库作为知识源,但自然语言的多样性使得XQA变得困难。实际上,对于回答复杂问题,整合来自异构知识源的信息至关重要。
2. 创新的RoHT框架
为了应对这些挑战,我们提出了RoHT框架。通过构建HQDT来分解复杂问题,并在此基础上进行概率推理,从而整合来自知识库和文本的知识。RoHT框架的评估结果表明,它在整合知识库和文本的设置下显著提高了性能,相比现有的最先进方法,在KQA Pro和Musique数据集上分别提高了29.7%和45.8%的EM分数。