【PaperReading】Knowledge Graph Embedding Based Question Answering

本文提出了一种名为基于知识嵌入的问答系统(KEQA)的框架,旨在利用知识图(KG)嵌入解决自然语言问题。KEQA针对简单问题,通过联合恢复头部实体、谓词和尾部实体的表示来回答问题。在KG嵌入空间中,KEQA使用神经网络模型预测问题的谓词和头部实体表示,并通过头部实体检测模型减少候选实体的数量。通过联合距离度量,KEQA在大量事实中找到最匹配的答案。实验表明,KEQA在问答系统中表现出较高的有效性和鲁棒性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


ng Li, Ping Li*

摘要

知识图问答(QA-KG)旨在利用知识图(KG)中的事实来回答自然语言问题。它可以帮助最终用户更高效,更轻松地访问KG中的重要知识,而无需了解其数据结构。 QA-KG是一个不平凡的问题,因为捕获自然语言的语义对一台机器来说很困难。同时,已经提出了许多知识图嵌入方法。关键思想是将每个谓词/实体表示为低维向量,以便可以保留KG中的关系信息。所学习的向量可以使各种应用受益,例如KG完成和推荐系统。在本文中,我们探索使用它们来处理QA-KG问题。但是,由于谓词在自然语言问题中可能以不同的方式表达,因此这仍然是一项艰巨的任务。同样,实体名称和部分名称的含糊不清使得可能的答案数量变大。

为了弥合差距,我们提出了一个有效的基于知识嵌入的问答系统(KEQA)。 我们专注于回答最常见的问题类型,即简单问题,如果正确识别了其单个头部实体和单个谓词,则机器可以直接回答每个问题。 为了回答一个简单的问题,KEQA的目标不是在直接推断其主体和谓词,而是在KG嵌入空间中共同恢复问题的主体,谓词和尾部表示。 根据精心设计的联合距离度量,将三个学习到的向量在KG中最接近的事实作为答案返回。 在广泛采用的基准上进行的实验表明,所提出的KEQA优于最新的QA-KG方法。

评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

镰刀韭菜

看在我不断努力的份上,支持我吧

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值