
Knowledge Graph
文章平均质量分 68
该专栏整理了知识图谱相关的论文,包括传统KG领域的经典问题,以及在LLM背景下,KG的最新发展。专栏中部分文章为完整翻译,大多是摘要和结论的翻译,后续会完善所有内容翻译,订阅请注意!!!
优惠券已抵扣
余额抵扣
还需支付
¥99.90
¥299.90
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
UnknownBody
AI博士,最近一直follow大模型相关论文,每日会更新学术界论文的进展。
展开
-
Filter-then-Generate: Large Language Models with Structure-Text Adapter for Knowledge Graph
大型语言模型(LLMs)提供了大量的固有知识和卓越的语义理解能力,这彻底改变了自然语言处理中的各种任务。尽管取得了成功,但在使LLM能够执行知识图谱补全(KGC)方面仍存在关键差距。经验证据表明,即使通过复杂的提示设计或量身定制的指令调整,LLM的表现也始终不如传统的KGC方法。从根本上说,在KGC上应用LLM会带来几个关键挑战,包括大量的实体候选者、LLM的幻觉问题以及图结构的利用不足。为了应对这些挑战,我们提出了一种新的基于指令调优的方法,即FtG。原创 2025-02-10 09:00:00 · 192 阅读 · 0 评论 -
Knowledge Editing with Dynamic Knowledge Graphs for Multi-Hop Question Answering
由于涉及广泛的知识需求,多跳问答(MHQA)对大型语言模型(LLM)提出了重大挑战。知识编辑旨在精确修改LLM,以纳入特定知识,而不会对其他无关知识产生负面影响,为解决LLM的MHQA挑战提供了一种潜在的解决方案。然而,目前的解决方案很难有效地解决知识冲突问题。大多数参数保持编辑方法都受到不准确检索的阻碍,并忽略了二次编辑问题,这可能会在LLM的推理过程中引入噪声。本文介绍了KEDKG,这是一种利用动态知识图谱进行MHQA的新型知识编辑方法,旨在确保答案的可靠性。原创 2025-01-14 10:15:00 · 362 阅读 · 0 评论 -
Prometheus Chatbot: Knowledge Graph Collaborative Large Language Model for Computer Components
知识图谱 (KG) 在网络对齐、问答和推荐系统 (RS) 等应用中至关重要,因为它们提供结构化的关系数据,有助于推断间接关系。然而,开发能够以自然语言处理用户输入的基于 KG 的 RS 面临着重大挑战。首先,自然语言处理单元必须有效地处理人类语言中的歧义和可变性,以准确解释用户意图。其次,系统必须精确识别实体(如产品名称)并将其链接到 KG 中的相应节点。原创 2024-11-08 09:54:44 · 158 阅读 · 0 评论 -
PatentGPT: A Large Language Model for Patent Drafting Using Knowledgebased Fine-tuning Method
随着人类站在技术创新新时代的边缘,将创意迅速转化为受保护的知识产权(IP)的能力比以往任何时候都更加重要。然而,传统的专利起草流程充满了挑战,要求对先进的领域知识和技术概念有细致入微的理解。现有的大型语言模型(LLM)虽然功能强大,但由于缺乏生成技术上准确的专利文件所需的专业知识和上下文意识,在这个知识产权创建领域往往不足。为了弥合这一关键差距,我们提出了一个开创性的LLM知识微调(KFT)框架,旨在赋予人工智能自主挖掘、理解和应用特定领域知识的能力。原创 2024-10-10 09:45:00 · 224 阅读 · 0 评论 -
SGSH: Stimulate Large Language Models with Skeleton Heuristics for Knowledge Base Question
知识库问题生成(KBQG)旨在从知识库中提取的一组三元组事实中生成自然语言问题。由于丰富的语义知识,现有的方法通过预训练的语言模型(PLM)显著提高了KBQG的性能。随着预训练技术的进步,大型语言模型(LLMs)(如GPT-3.5)无疑拥有更多的语义知识。因此,如何有效地组织和利用KBQG的丰富知识成为我们研究的重点。在这项工作中,我们提出了SGSH——一个简单有效的框架,用骨架启发式来激励GPT-3.5,以增强KBQG。原创 2024-08-27 19:51:45 · 250 阅读 · 0 评论 -
KG-CTG: Citation Generation through Knowledge Graph-guided Large Language Models
引文文本生成(CTG)是自然语言处理(NLP)中的一项任务,旨在生成准确引用或引用源文档中引用文档的文本。在CTG中,生成的文本利用了源文档和引用论文的上下文线索,确保提供准确和相关的引用信息。引文生成领域的先前工作主要基于文献的文本摘要。在此基础上,本文提出了一个框架和一项比较研究,以证明大型语言模型(LLMs)在引文生成任务中的使用。此外,我们通过将论文的知识图谱关系纳入提示中,使LLM更好地了解论文之间的关系,从而提高了引文生成的结果。原创 2024-08-11 09:49:28 · 95 阅读 · 0 评论 -
Reasoning on Efficient Knowledge Paths:Knowledge Graph Guides Large Language Model for Domain
大型语言模型(LLM),如GPT3.5、GPT4和LLAMA2,表现出奇地好,在许多任务上都优于人类专家。然而,在许多领域特定的评估中,由于相关语料库的训练不足,这些LLM经常出现幻觉问题。此外,微调大型模型可能会面临一些问题,例如LLM不是开源的,或者难以构建高质量的领域指令。因此,知识图谱等结构化知识数据库可以更好地为LLM提供领域背景知识,并充分利用LLM的推理和分析能力。在之前的一些工作中,LLM被多次调用,以确定在通过问题检索子图时,当前三元组是否适合包含在子图中。原创 2024-08-09 23:09:31 · 280 阅读 · 0 评论 -
Enhancing Question Answering for Enterprise Knowledge Bases using Large Language Models
高效的知识管理在提高企业和组织的运营效率和创新能力方面发挥着关键作用。通过矢量化对知识进行索引,出现了各种知识检索方法,显著提高了知识管理系统的效率。最近,生成性自然语言处理技术的快速发展为在检索针对用户查询量身定制的相关文档后生成精确和连贯的答案铺平了道路。然而,对于企业知识库来说,由于私人数据的隐私和安全政策,从头开始组装大量的训练数据用于知识检索和生成是一项艰巨的挑战,这通常会带来巨大的成本。原创 2024-08-03 10:50:57 · 133 阅读 · 0 评论 -
Guiding Large Language Models to Answer Complex Logic Queries with Knowledge Graphs
尽管在许多任务中表现出色,但大型语言模型(LLM)在面对需要知识准确性的任务时,仍有产生幻觉甚至错误答案的风险。当处理需要多个逻辑推理步骤的逻辑查询时,这个问题变得更加明显。另一方面,基于知识图谱的问答方法能够借助知识图谱准确识别正确答案,但当知识图谱本身稀疏和不完整时,其准确性可能会迅速下降。如何以互惠互利的方式将知识图谱推理与LLM相结合,以缓解LLM的幻觉问题和知识图谱的不完整性问题,仍然是一个关键的挑战。原创 2024-07-22 18:01:03 · 114 阅读 · 0 评论 -
Evaluating the Factuality of Large Language Models using Large-Scale Knowledge Graphs
大型语言模型(LLMs)的出现极大地改变了人工智能的格局,增强了机器学习和人工智能的能力。事实性问题是LLM的一个关键问题,因为它们可能会产生与事实不符的回答。在这篇论文中,我们提出了GraphEval来使用一个相当大的测试数据集来评估LLM的性能。具体来说,测试数据集是从一个包含1000多万个事实的大型知识图谱中检索出来的,无需付出昂贵的人力。与基于生成的响应评估LLM的传统方法不同,GraphEval通过创建判断模型来估计LLM给出的答案的正确性,从而简化了评估过程。原创 2024-07-19 11:26:56 · 412 阅读 · 0 评论 -
AriGraph: Learning Knowledge Graph World Models with Episodic Memory for LLM Agents
生成式人工智能的进步拓宽了大型语言模型(LLM)在自主代理开发中的潜在应用。实现真正的自主性需要积累和更新从与环境的交互中获得的知识,并有效地利用它。目前基于LLM的方法利用过去的经验,使用完整的观察历史、总结或检索增强。然而,这些非结构化的记忆表示并不能促进复杂决策所必需的推理和规划。在我们的研究中,我们介绍了AriGraph,这是一种新方法,其中代理在探索环境的同时构建了一个整合语义和情景记忆的记忆图。原创 2024-07-18 14:44:37 · 395 阅读 · 0 评论 -
Large Language Models Can Better Understand Knowledge Graphs Than We Thought
随着大型语言模型(LLM)参数规模的增长,用模型参数联合训练知识图谱(KG)嵌入以增强LLM能力的成本越来越高。因此,社会对制定快速战略,将KG信息有效整合到LLM中表现出了兴趣。然而,将KGs纳入LLM的格式缺乏标准化;例如,KGs可以转换为线性化的三元组或自然语言(NL)文本。目前的提示方法通常依赖于试错法,使研究人员无法完全理解哪种KG输入格式最有利于LLM对KG内容的理解。为了阐明这一点,我们设计了一系列实验来探索LLM在提示工程的背景下对不同KG输入格式的理解。原创 2024-07-09 16:14:17 · 97 阅读 · 0 评论 -
Guiding Clinical Reasoning with Large Language Models via Knowledge Seeds
临床推理是指医生在评估和管理患者时所采用的认知过程。这一过程通常包括建议必要的检查、诊断患者的疾病和选择适当的治疗方法等。准确的临床推理需要广泛的医学知识和丰富的临床经验,这为医生设定了很高的标准。这在发展中国家尤其具有挑战性,因为患者数量巨大,医生资源有限,严重加剧了全球卫生不平等,需要采用自动化的临床推理方法。最近,大型语言模型(LLM)的出现,如ChatGPT和GPT-4,已经证明了它们在临床推理中的潜力。然而,这些LLM容易出现幻觉问题,LLM的推理过程可能与医生的临床决策途径不一致。原创 2024-07-05 13:38:19 · 71 阅读 · 0 评论 -
A Knowledge-constrained Generative Re-ranking Method Based on Large Language Models
知识图谱补全(KGC)的目标是预测实体之间缺失的事实。以前的KGC重新排序方法大多建立在非生成语言模型上,以获得每个候选者的概率。近年来,生成型大型语言模型(LLM)在信息提取和对话系统等任务中表现出了卓越的性能。利用它们进行KGC重新排名有利于利用广泛的预训练的知识和强大的生成能力。然而,它在完成任务时可能会遇到新的问题,即不匹配、顺序错误和遗漏。为此,我们介绍了KC GenRe,一种基于LLM的知识约束的KGC生成重新排序方法。原创 2024-07-01 14:35:34 · 104 阅读 · 0 评论 -
An Automatic and End-to-End System for Rare Disease Knowledge Graph Construction
目标我们的目标是创建一个名为AutoRD的端到端系统,该系统可以自动从罕见病的临床文本中提取信息。我们进行了各种测试来评估AutoRD的性能,并在本文中强调了其优势和局限性。材料和方法我们的系统AutoRD是一个涉及数据预处理、实体提取、关系提取、实体校准和知识图谱构建的软件管道。我们使用从开源医学本体开发的大型语言模型和医学知识图谱来实现这一点。我们在实体提取、关系提取和知识图谱构建性能方面对我们的系统进行了定量评估。结果AutoRD的F1总分为47.3%,与基础LLM相比提高了14.4%。原创 2024-06-30 11:42:03 · 109 阅读 · 0 评论 -
Large Language Models Meet Multimodal Knowledge Graphs for Enhancing Reference-Based Phishing
网络钓鱼攻击给个人和企业带来了巨大损失,因此需要开发强大高效的自动网络钓鱼检测方法。基于参考的网络钓鱼检测器(RBPD)将目标网页上的徽标与已知的徽标集进行比较,已成为最先进的方法。然而,现有RBPD的一个主要局限性是,它们依赖于手动构建的品牌知识库,使其无法扩展到大量品牌,这导致了由于知识库的品牌覆盖率不足而导致的假阴性错误。为了解决这个问题,我们提出了一个自动化的知识收集管道,利用它我们收集了一个大规模的多模态品牌知识库KnowPhish,其中包含2万个品牌,每个品牌都有丰富的信息。原创 2024-06-19 14:55:00 · 173 阅读 · 0 评论 -
Enhancing Large Language Models with Knowledge Graphs via Infuser-Guided Knowledge Integration
尽管大型语言模型(LLM)在不同领域都表现出了非凡的开放生成能力,但它们在知识密集型任务中举步维艰。为了缓解这一问题,已经提出了使用外部模块通过特定领域的知识图谱来增强LLM的知识集成方法。然而,它们的数据效率低下,因为它们需要已知和未知的知识来进行微调。因此,我们研究了一个新的问题,即在没有已知知识不必要重叠的情况下,将未知知识有效地集成到LLM中。注入新知识会带来遗忘先前获得的知识的风险。原创 2024-06-05 09:16:52 · 374 阅读 · 0 评论 -
Knowledge Graph Large Language Model (KG-LLM) for Link Prediction
预测知识图谱(KG)中的多个链接是知识图谱分析领域的一个挑战,由于自然语言处理(NLP)和KG嵌入技术的进步,这一挑战越来越容易解决。本文介绍了一种新的方法,即知识图谱大型语言模型框架(KG-LLM),它利用了关键的NLP范式。我们使用我们的方法将结构化知识图谱数据转换为自然语言,然后使用这些自然语言提示来微调大型语言模型(LLM),以增强KGs中的多跳链接预测。通过将KG转换为自然语言提示,我们的框架旨在识别和学习实体的潜在表示及其相互关系。原创 2024-05-24 11:39:40 · 295 阅读 · 0 评论 -
Multi-perspective Improvement of Knowledge Graph Completion with Large Language Models
知识图谱补全(KGC)是一种广泛使用的方法,通过对缺失链接进行预测来解决知识图谱中的不完整问题。基于描述的KGC利用预训练的语言模型来学习具有名称或描述的实体和关系表示,这显示出有希望的结果。然而,基于描述的KGC的性能仍然受到文本质量和不完整结构的限制,因为它缺乏足够的实体描述,并且仅依赖于关系名称,导致次优结果。原创 2024-05-21 17:13:54 · 207 阅读 · 0 评论 -
Infusing Knowledge into Large Language Models with Contextual Prompts
知识注入是一种很有前途的方法,可以增强特定领域NLP任务的大型语言模型,而不是从头开始对大型数据进行预训练模型。这些增强的LLM通常依赖于来自现有知识图谱的额外预训练或知识提示,这在许多应用中是不切实际的。相比之下,直接从相关文档中注入知识更具普遍性,减轻了对结构化知识图的需求,同时对通常在任何知识图谱中都找不到的实体也很有用。基于这一动机,我们提出了一种简单而通用的知识注入方法,通过在输入文本中的上下文中生成提示。我们的实验表明了我们的方法的有效性,我们通过探索微调LLM来评估该方法。原创 2024-05-21 10:54:09 · 201 阅读 · 0 评论 -
Large Language Models for Verifiable Commonsense Knowledge Graph Question Answering
知识图谱问答(KGQA)方法寻求使用存储在知识图谱(KGs)中的关系信息来回答自然语言问题。随着大型语言模型(LLM)的最新进展及其卓越的推理能力,利用它们进行KGQA的趋势越来越大。然而,现有的方法只专注于回答事实问题,例如“西尔维奥·贝卢斯科尼的第一任妻子出生在哪个城市。在这项工作中,我们首先观察到,现有的基于LLM的KGQA方法在这些问题上与幻觉作斗争,特别是在针对长尾实体(例如,非主流和最近的实体)的查询上,从而阻碍了它们在现实世界应用中的适用性,特别是因为它们的推理过程不容易验证。原创 2024-05-20 16:37:54 · 99 阅读 · 0 评论 -
Two-stage Generative Question Answering on Temporal Knowledge Graph Using Large Language Models
由于隐藏在问题中的时间约束以及从动态结构化知识中寻求答案,时间知识图谱问答(TKGQA)是一项具有重大挑战性的任务。尽管大型语言模型(LLM)在其对结构化数据的推理能力方面取得了相当大的进步,但其在TKGQA任务中的应用是一个相对未开发的领域。本文首先提出了一种新的生成时态知识图谱问答框架GenTKGQA,该框架通过子图检索和答案生成两个阶段指导LLM回答时态问题。首先,我们利用LLM的内在知识来挖掘问题中的时间约束和结构链接,而无需额外的训练,从而在时间和结构维度上缩小子图搜索空间。原创 2024-05-02 10:27:38 · 247 阅读 · 0 评论 -
Enhancing Temporal Knowledge Graph Forecasting with Large Language Models
时间知识图谱(TKG)预测旨在基于给定的历史来预测未来的事实。最新的基于图的模型擅长捕捉TKG中的结构信息,但缺乏语义理解能力。如今,随着LLM的激增,基于LLM的TKG预测模型已经出现。然而,现有的基于LLM的模型存在三个缺点:(1)它只关注一阶历史进行预测,而忽略了高阶历史信息,导致为LLM提供的信息极其有限。(2) LLM在繁重的历史信息负载下难以获得最佳推理性能。(3) 对于TKG预测,LLM单独的时间推理能力是有限的。原创 2024-04-30 09:44:35 · 453 阅读 · 0 评论 -
Knowledge Graph Enhanced Large Language Model Editing
大型语言模型(LLM)是推进自然语言处理(NLP)任务的关键,但其功效受到不准确和过时知识的阻碍。模型编辑是解决这些挑战的一个很有前途的解决方案。然而,现有的编辑方法难以跟踪和整合与编辑相关的知识变化,这限制了编辑后LLM在处理编辑知识时的泛化能力。为了解决这些问题,我们提出了一种新的模型编辑方法,即GLAME,该方法利用知识图谱来增强LLM编辑。具体来说,我们首先利用知识图谱增强模块来揭示由于编辑而发生变化的相关知识,从而获得其在LLM中的内部表示。这种方法允许LLM内的知识变化通过外部图结构反映出来。原创 2024-04-26 14:24:55 · 272 阅读 · 0 评论 -
Enhancing Large Language Models with Pseudo- and MultisourceKnowledge Graphs for Open-ended QA
减轻大型语言模型(LLM)的幻觉并增强它们是一项至关重要的任务。尽管一些现有的方法采用了模型自我增强技术,但它们不能有效地解决未知的事实幻觉。使用知识图谱(KG)增强方法无法同时解决不同KG来源的泛化和开放式回答问题的增强问题。为了解决这些限制,提出了一个结合伪图生成和原子知识验证的框架。在开放式问答环境中使用KG增强LLM是通过利用伪图生成来实现的。原子知识验证利用原子级的知识查询和验证来实现不同KG来源下的可推广性。与基线相比,这种方法在开放式问题的ROUGE-L分数上至少提高了11.5分。原创 2024-04-12 15:16:40 · 97 阅读 · 0 评论 -
GLaM: Fine-Tuning Large Language Models for Domain Knowledge Graph Alignment
将大型语言模型(LLM)与从特定领域数据派生的知识图谱相集成,代表着朝着更强大、更真实的推理方向迈出了重要的一步。随着这些模型的能力越来越强,使它们能够对真实世界的知识图谱执行多步骤推理,同时最大限度地减少幻觉,这一点至关重要。虽然大型语言模型擅长对话和文本生成,但它们在互联实体的领域专用图上推理的能力仍然有限。例如,我们能否根据私人数据库中的关系和属性,查询LLM,以确定专业网络中针对特定目标的最佳联系人?答案是否定的——这种能力超出了目前的方法。然而,这一问题凸显了一个必须解决的关键技术差距。原创 2024-03-20 15:30:25 · 108 阅读 · 0 评论 -
EntGPT: Linking Generative Large Language Models with Knowledge Bases
由于在训练和推理过程中缺乏事实核查和知识基础,大型语言模型(LLM)生成事实正确输出的能力仍然相对未被探索。在这项工作中,我们的目标是通过实体消歧(ED)任务来应对这一挑战。我们首先考虑提示工程,并设计了一种三步硬提示方法来探测LLM的ED性能,而无需监督微调(SFT)。总体而言,提示方法提高了Micro-𝐹1分,在某些情况下高达36%甚至更高,并且与现有的SFT方法相比,在10个数据集上获得了可比的性能。我们通过具有类似提示和响应的指令调整(IT)进一步提高了知识基础能力。原创 2024-03-20 09:57:55 · 87 阅读 · 0 评论 -
Unlocking the Power of Large Language Models for Entity Alignment
实体对齐(EA)对于集成各种知识图谱(KG)数据至关重要,在数据驱动的人工智能应用中发挥着至关重要的作用。传统的EA方法主要依赖于比较实体嵌入,但其有效性受到有限的输入KG数据和表示学习技术能力的限制。在此背景下,我们介绍了ChatEA,这是一个创新的框架,它结合了大型语言模型(LLM)来改进EA。为了解决有限输入KG数据的限制,ChatEA引入了一个KG代码翻译模块,该模块将KG结构翻译成LLM可以理解的格式,从而允许LLM利用其广泛的背景知识来提高EA的准确性。原创 2024-03-16 14:07:47 · 182 阅读 · 0 评论 -
KICGPT: Large Language Model with Knowledge in Context for Knowledge Graph Completion
知识图谱补全(KGC)对于解决知识图谱不完备问题和支持下游应用至关重要。已经为KGC提出了许多模型。它们可以分为两大类:基于三元组的方法和基于文本的方法。由于结构信息有限和实体分布不平衡,基于三元组的方法难以处理长尾实体。基于文本的方法可以缓解这一问题,但需要对语言模型进行昂贵的训练,并对知识图谱进行特定的微调,这限制了它们的效率。为了缓解这些限制,在本文中,我们提出了KICGPT,这是一个集成了大型语言模型(LLM)和基于三元组的KGC检索器的框架。它在不产生额外训练开销的情况下缓解了长尾问题。原创 2024-03-14 10:31:37 · 264 阅读 · 0 评论 -
Contextualization Distillation from Large Language Model for Knowledge Graph Completion
虽然文本信息显著提高了预训练语言模型在知识图谱填充(KGC)中的性能,但从维基百科文章或同义词集定义中收集的现有语料库的静态和噪声性质往往限制了基于PLM的KGC模型的潜力。为了克服这些挑战,我们引入了上下文化蒸馏策略,这是一种通用的即插即用方法,与歧视性和生成性KGC框架兼容。我们的方法首先指示大型语言模型(LLM)将紧凑的结构三元组转换为上下文片段。随后,我们引入了两个量身定制的辅助任务——重建和情境化——允许较小的KGC模型吸收来自这些丰富的三元组的见解。原创 2024-03-11 10:44:29 · 151 阅读 · 0 评论 -
UrbanKGent: A Unified Large Language Model Agent Framework for Urban Knowledge Graph Construction
城市知识图谱最近作为一个新兴的构建块,从多源城市数据中提取关键知识,用于不同的城市应用场景。尽管城市知识图谱构建(UrbanKGC)有着良好的效益,但它仍然严重依赖人工,阻碍了其潜在的发展。本文提出了一个统一的大型语言模型代理框架UrbanKGent,用于城市知识图谱的构建。具体而言,我们首先通过异构感知和地理空间融合的指令生成,为UrbanKGC任务(如关系三元组提取和知识图谱填充)构建知识渊博的指令集。此外,我们提出了一个工具增强迭代轨迹细化模块来增强和细化从GPT-4中提取的轨迹。原创 2024-03-07 09:14:30 · 244 阅读 · 0 评论 -
Benchmarking Large Language Models in Complex Question Answering Attribution using Knowledge Graphs
问答的归因是为支持生成的陈述提供引文,引起了广泛的研究关注。目前自动评估归因的方法通常基于大型语言模型(LLM),但仍然不足,特别是在识别归因之间的细微差异以及引用和陈述之间的复杂关系方面。为了比较这些归因评估方法并开发新的方法,我们引入了一组细粒度的类别(即支持性、不充分性、矛盾性和无关性)来衡量归因,并通过利用知识图谱(KGs)自动生成不同类别对问答对的归因,开发了一个复杂归因问答(CAQA)基准。我们的分析表明,现有的评估者在细粒度的归因设置下表现不佳,在复杂的引文陈述推理中表现出弱点。原创 2024-03-06 10:07:44 · 88 阅读 · 0 评论 -
ConstraintChecker: A Plugin for Large Language Models to Reason on Commonsense Knowledge Bases
基于常识知识库的推理(CSKB),即CSKB推理,已被探索为一种基于原始CSKB中的参考知识和外部先验知识来获取新的常识知识的方法。尽管大型语言模型(LLM)和提示工程技术在各种推理任务中取得了进步,但它们仍然难以处理CSKB推理。其中一个问题是,由于缺乏符号推理能力,他们很难仅从上下文示例中获得CSKB中的明确关系约束。为此,我们提出了ConstraintChecker,这是一个基于提示技术的插件,用于提供和检查显式约束。原创 2024-02-29 10:38:28 · 356 阅读 · 0 评论 -
Two Heads Are Better Than One: Integrating Knowledge from Knowledge Graphs and Large Language Models
实体对齐是创建更全面的知识图谱(KG)的先决条件,包括在不同的知识图谱中精确定位等效实体。当代的实体对齐方法主要利用知识嵌入模型来获取包含各种相似性(结构、关系和属性)的实体嵌入。然后,这些嵌入通过基于注意力的信息融合机制进行整合。尽管取得了这些进展,但由于固有的异质性,有效利用多方面信息仍然具有挑战性。此外,尽管大型语言模型(LLM)通过隐式捕获实体语义,在不同的下游任务中表现出了卓越的性能,但这种隐式知识尚未被用于实体对齐。原创 2024-02-26 10:05:06 · 877 阅读 · 0 评论 -
TECHGPT-2.0: A LARGE LANGUAGE MODEL PROJECT TO SOLVE THE TASK OF KNOWLEDGE GRAPH CONSTRUCTION
大型语言模型在不同的自然语言处理任务中表现出了强大的性能。本报告介绍了TechGPT-2.0,该项目旨在增强大型语言模型的能力,特别是在知识图谱构建任务中,包括NLP应用程序中的命名实体识别(NER)和关系三重提取(RTE)任务。此外,它还是一个LLM,可供中国开源模型社区的研究使用。我们提供两个7B大型语言模型权重和一个专门用于处理长文本的QLoRA权重。值得注意的是,TechGPT-2.0是在华为的Ascend服务器上训练的。原创 2024-02-19 15:54:49 · 460 阅读 · 0 评论 -
KnowledgeNavigator: Leveraging Large Language Models for Enhanced Reasoning over Knowledge Graph
大型语言模型(LLM)凭借其对自然语言的高级理解和零样本能力,在各种下游任务中取得了出色的性能。然而,他们在知识约束方面很吃力,尤其是在需要复杂推理或扩展逻辑序列的任务中。这些限制可能会导致不准确和幻觉,从而影响他们在问答(QA)中的表现。在本文中,我们介绍了一个名为KnowledgeNavigator的新框架,旨在克服这些挑战。它通过从知识图谱中高效准确地检索外部知识来改进LLM推理。KnowledgeNavigator从细化问题所隐含的约束开始,这有助于引导推理过程。原创 2024-01-29 14:29:09 · 1334 阅读 · 0 评论 -
On Exploring the Reasoning Capability of Large Language Models with Knowledge Graphs
本文考察了LLM使用其内部知识图谱(即他们在预训练期间学习的知识图谱)与知识图谱进行推理的能力。提出了两个研究问题,以研究LLM从预训练知识图谱中回忆信息的准确性以及它们从上下文中推断知识图谱关系的能力。为了解决这些问题,我们使用LLM来执行四个不同的知识图谱推理任务。此外,我们确定了在LLM的知识推理过程中可能发生的两种类型的幻觉:内容幻觉和本体幻觉。我们的实验结果表明,LLM可以从自己的记忆中成功地处理简单和复杂的知识图谱推理任务,也可以从输入上下文中进行推理。原创 2024-01-16 17:47:24 · 356 阅读 · 0 评论 -
LLM-ARK: KNOWLEDGE GRAPH REASONING USING LARGE LANGUAGE MODELS VIA DEEP REINFORCEMENT LEARNING
随着预训练方法的发展,大型语言模型(LLM)通过提示工程展现出了示范性的推理能力。然而,与较小的模型相比,缺乏知识图谱(KG)环境意识以及为中介推理过程设计可行的优化机制的挑战,限制了LLM在KG推理任务上的性能。我们介绍了LLM-ARK,这是一种基于LLM的KG推理代理,旨在对KG路径提供精确且适应性强的预测。LLM-ARK利用全文本环境(FTE)提示来吸收每个步长智能的状态信息。在做出最终决策之前,利用LLM对各种类型的输入进行丰富的编码和表示,并将知识图谱与路径环境数据进一步集成。原创 2024-01-12 17:02:36 · 535 阅读 · 0 评论 -
KG-GPT: A General Framework for Reasoning on Knowledge Graphs Using Large Language Models
尽管大型语言模型(LLM)在理解和生成非结构化文本方面取得了相当大的进步,但其在结构化数据中的应用仍有待开发。特别是,将LLM用于知识图谱(KGs)上的复杂推理任务在很大程度上保持不变。为了解决这个问题,我们提出了KG-GPT,这是一个多用途框架,利用LLM来执行使用KGs的任务。KG-GPT包括三个步骤:句子分割、图检索和推理,每个步骤分别旨在划分句子、检索相关的图组件和得出逻辑结论。我们使用基于KG的事实验证和KGQA基准来评估KG-GPT,该模型显示出竞争性和鲁棒性,甚至优于几个完全监督的模型。原创 2023-11-07 15:14:28 · 372 阅读 · 0 评论 -
TOWARDS FOUNDATION MODELS FOR KNOWLEDGE GRAPH REASONING
语言和视觉中的基础模型能够对任何文本和视觉输入进行推理,这要归功于语言中的可转移表示,如标记词汇。知识图谱(KGs)具有不同的实体和关系词汇,它们通常不重叠。在KGs上设计基础模型的关键挑战是学习这种可转移的表示,从而能够在任何具有任意实体和关系词汇的图上进行推理。在这项工作中,我们朝着这样的基础模型迈出了一步,并提出了ULTRA,一种学习通用和可转移图表示的方法。ULTRA将关系表示构建为一个以它们的交互为条件的函数。原创 2023-10-30 17:40:51 · 290 阅读 · 0 评论