本文是LLM系列文章,针对《Two-stage Generative Question Answering on Temporal Knowledge
Graph Using Large Language Models》的翻译。
摘要
由于隐藏在问题中的时间约束以及从动态结构化知识中寻求答案,时间知识图谱问答(TKGQA)是一项具有重大挑战性的任务。尽管大型语言模型(LLM)在其对结构化数据的推理能力方面取得了相当大的进步,但其在TKGQA任务中的应用是一个相对未开发的领域。本文首先提出了一种新的生成时态知识图谱问答框架GenTKGQA,该框架通过子图检索和答案生成两个阶段指导LLM回答时态问题。首先,我们利用LLM的内在知识来挖掘问题中的时间约束和结构链接,而无需额外的训练,从而在时间和结构维度上缩小子图搜索空间。接下来,我们设计了虚拟知识指标,以非浅层的方式融合子图的图神经网络信号和LLM的文本表示,这有助于开源LLM通过指令调优深入了解检索到的事实之间的时间顺序和结构依赖性。实验结果表明,我们的模型优于最先进的基线,甚至在简单问题类型的指标上达到了100%。
1 引言
2 相关工作
3 前言
4 方法
5 实验
6 结论
我们提出了一种新的生成框架GenTKGQA,它以两阶段的方式指导LLM处理TKG上的时间问答。具体

本文提出了一种名为GenTKGQA的两阶段生成框架,结合大型语言模型解决时态知识图谱问答。通过LLM挖掘时间约束和结构链接,减少子图搜索,然后使用虚拟知识指标融合图神经信号和文本表示,提高复杂问题的推理性能。实验显示,该模型在TKGQA任务上优于现有基线。
订阅专栏 解锁全文
1874

被折叠的 条评论
为什么被折叠?



