
论文合集--llm+kg
文章平均质量分 94
研读论文
三月七꧁ ꧂
尚未佩妥剑,转眼便江湖。愿历尽千帆,归来仍少年! 跨考计算机上岸,下一站:月薪3W!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
PersonaRAG: Enhancing Retrieval-Augmented Generation Systems with User-Centric Agents
由于过时的知识和幻觉,大型语言模型(LLM)难以产生可靠的输出。检索增强生成(RAG)模型通过用外部知识增强LLM来解决这个问题,但是通常不能个性化检索过程。本文介绍了PersonaRAG,这是一个新的框架,结合了以用户为中心的代理,以适应基于实时用户数据和交互的检索和生成。通过对各种问答数据集的评估,PersonaRAG展示了相对于基线模型的优越性,为用户需求提供了量身定制的答案。这些结果为用户适应的信息检索系统提出了有希望的方向。原创 2025-03-12 22:24:36 · 1157 阅读 · 0 评论 -
Leveraging LLM Agents for Automated Optimization Modeling for SASP Problems: A Graph-RAG based Appro
随着大型语言模型(LLM)的快速发展,自动优化建模(AOM)引起了人们极大的兴趣。现有方法主要依赖于即时工程,利用精心设计的专家响应链或结构化指导。然而,由于缺乏特定领域的知识,基于prompt的技术在传感器阵列信号处理(SASP)领域表现不佳。为了解决这个问题,我们提出了一种基于检索增强生成(RAG)技术的自动建模方法,该方法由两个主要部分组成:多代理(MA)结构和基于图的RAG (GraphRAG)过程。MA结构是为建筑AOM过程定制的,每个代理都是根据人类建模过程的原则设计的。原创 2025-03-12 22:10:34 · 817 阅读 · 0 评论 -
RAG-Guided Large Language Models for Visual Spatial Description with Adaptive Hallucination Correcto
视觉空间描述(VSD)是一种新兴的图像到文本的任务,旨在生成图像中给定对象之间的空间关系的描述。在本文中,我们将检索增强生成(RAG)技术应用于指导用于VSD任务的多模态大型语言模型(MLLMs ),辅以自适应幻觉校正器,并进一步微调它们以支持语义理解和整体模型功效。我们发现,在VSD任务中,我们的方法在空间关系分类和视觉语言描述任务中表现出更高的准确性和更少的幻觉错误,达到了最先进的结果。原创 2025-03-10 23:15:06 · 924 阅读 · 0 评论 -
P-RAG: Progressive Retrieval Augmented Generation For Planning on Embodied Everyday Task
具体化日常任务是具体化AI社区中的一个流行任务,要求代理根据自然语言指令和视觉观察做出一系列动作。传统的基于学习的方法面临两个挑战。首先,自然语言指令通常缺乏明确的任务规划。第二,需要大量的训练来使模型具备任务环境的知识。以往基于大型语言模型(LLM)的工作要么由于缺乏特定任务知识而表现不佳,要么依赖地面真实作为少量样本。为了解决上述限制,我们提出了一种新的方法,称为渐进检索增强生成(P-RAG ),它不仅有效地利用了LLM强大的语言处理能力,而且渐进地积累特定任务的知识,而不需要地面事实。原创 2025-03-10 23:04:53 · 1057 阅读 · 0 评论 -
KnowledGPT: Enhancing Large Language Models with Retrieval and Storage Access on Knowledge Bases
大语言模型(LLM)在自然语言处理领域表现出了令人印象深刻的影响,但它们仍然面临着完整性、及时性、忠实性和适应性等问题。虽然最近的工作重点是将法学硕士与外部知识源联系起来,但知识库(KB)的整合仍然没有得到充分研究,并面临一些挑战。在本文中,我们介绍了 KnowledGPT,这是一个将法学硕士与各种知识库联系起来的综合框架,有助于知识的检索和存储。检索过程采用思维提示程序,生成代码格式的知识库搜索语言,并带有预定义的知识库操作函数。原创 2025-03-01 21:54:03 · 1083 阅读 · 1 评论 -
Large-Scale Relation Learning for Question Answering over Knowledge Bases with Pre-trained Language
知识库问答(KBQA)的关键挑战是自然语言问题与知识库(KB)中推理路径的不一致。最近基于图的 KBQA 方法擅长掌握图的拓扑结构,但经常忽略节点和边携带的文本信息。同时,预训练的语言模型从大型语料库中学习大量开放世界知识,但它是自然语言形式而不是结构化的。为了弥合自然语言和结构化知识库之间的差距,我们为基于 BERT 的知识库问答提出了三个关系学习任务,包括关系提取、关系匹配和关系推理。通过关系增强训练,模型学习将自然语言表达与知识库中的关系对齐,并对知识库中缺失的连接进行推理。原创 2025-03-01 21:39:02 · 754 阅读 · 0 评论 -
Evaluation of LLM Tools for Feedback Generation in a Course on Concurrent Programming
大型语言模型 (LLM) 的出现标志着教育领域的重大变革。这些 LLM 及其相关聊天机器人的出现为学生和教育工作者带来了诸多好处,包括可用作内容创作或总结的教学助手。本文旨在评估 LLM 聊天机器人在大学编程课程中为学生练习提供反馈的能力。本研究中的编程主题 (并发性) 的复杂性使得向学生提供反馈的必要性变得更加重要。作者对学生提交的练习进行了评估。然后,使用 ChatGPT(来自 OpenAI)和 Bard(来自 Google)评估每个练习,寻找典型的并发错误,例如饥饿、死锁或竞争条件。原创 2024-07-23 20:59:20 · 655 阅读 · 0 评论 -
MedEdit: Model Editing for Medical Question Answering with External Knowledge Bases
大语言模型(LLM)虽然在通用领域很强大,但在特定领域的任务(例如医学问答QA)上通常表现不佳。此外,它们往往充当“黑匣子”,使得改变它们的行为变得具有挑战性。为了解决这个问题,我们深入研究了利用情境学习的模型编辑,旨在提高LLM的反应,而无需进行微调或再培训。具体来说,我们提出了一种全面的检索策略,从外部知识库中提取医学事实,然后将它们合并到LLM的查询提示中。我们使用 MedQA-SMILE 数据集重点关注医学 QA,评估不同检索模型的影响以及向LLM提供的事实数量。原创 2024-03-20 21:01:21 · 1156 阅读 · 0 评论 -
ChatLaw: Open-Source Legal Large Language Modelwith Integrated External Knowledge Bases
大语言模型(LLM)已经显示出在各个领域革新自然语言处理任务的潜力,引发了对特定于垂直领域的大型模型的极大兴趣。然而,与BloombergGPT和FinGPT等利用其独特的数据积累在金融领域取得进展的专有模型不同,中国法律领域没有多少类似的大语言模型来促进其数字化转型。本文提出了一个名为ChatLaw的开源法律大语言模型。由于数据质量的重要性,我们精心设计了一个法律领域微调数据集。原创 2024-03-14 19:31:38 · 1476 阅读 · 0 评论 -
基于 BERT 的非结构化领域文本知识抽取
随着知识图谱技术的发展和商业应用的普及,从各类非结构化领域文本中提取出知识图谱实体及关系数据的需求日益增加。这使得针对领域文本的自动化知识抽取颇有意义。本文提出了一种基于 BERT 的知识抽取方法,用于从非结构化的特定领域文本(例如保险行业的保险条款)中自动抽取知识点,以达到在构建知识图谱的过程中节约人力的目的。原创 2024-07-10 20:42:59 · 1472 阅读 · 0 评论 -
FOODGPT: A LARGE LANGUAGE MODEL IN FOOD TESTING DOMAIN WITH INCREMENTAL PRE-TRAINING AND KNOW...
目前,特定领域的大型语言模型的构建是通过在基础模型上进行微调来完成的。有些模型还包含知识库,无需预先训练。这是因为基础模型在预训练过程中已经包含了特定领域的知识。我们构建了一个用于食品测试的大语言模型。与上述方法不同,该域中的大量数据以域标准文档的扫描格式存在。此外,还存在大量未经训练的结构化知识。因此,我们引入了增量预训练步骤,将这些知识注入到大语言模型中。在本文中,我们提出了一种在增量预训练中处理结构化知识和扫描文档的方法。原创 2024-07-04 17:15:13 · 1389 阅读 · 0 评论 -
Biomedical knowledge graph-enhanced prompt generation for large language models
大语言模型(LLM)一直在以前所未有的速度推动人工智能的进步,但在生物医学等知识密集型领域仍然面临挑战。预训练和特定领域微调等解决方案增加了大量的计算开销,后者也需要领域专业知识。外部知识注入是特定于任务的,需要模型训练。在这里,我们引入了一种与任务无关的基于知识图谱的检索增强生成(KG-RAG)框架,通过利用 Llama-2-13b、GPT-3.5-Turbo 和 GPT-4等大语言模型和大规模生物医学知识图谱 SPOKE 来生成植根于既定知识的有意义的生物医学文本。原创 2024-03-10 10:04:22 · 1632 阅读 · 0 评论 -
Self-supervised Contextual Keyword and Keyphrase Retrieval with Self-Labelling
在本文中,我们提出了一种通过端到端深度学习方法进行关键字和关键短语检索和提取的新型自监督方法,该方法由上下文自标记语料库进行训练。我们提出的方法是新颖的,它使用上下文和语义特征来提取关键词,并且优于现有技术。通过实验证明该方法在语义和质量上均优于现有流行的关键词提取算法。此外,我们建议使用Transform的上下文特征来自动用关键字和关键短语标记短句语料库以构建基本事实。这个过程避免了人工标记关键字的时间,并且不需要任何先验知识。原创 2024-03-14 21:00:15 · 997 阅读 · 0 评论 -
Guiding Large Language Models viaDirectional Stimulus Prompting
我们引入了定向刺激提示,这是一种新颖的框架,用于指导黑盒大语言模型(LLM)实现特定的所需输出。我们的方法不是直接调整 LLM,而是采用小型可调策略模型(例如 T5)为每个输入实例生成辅助定向刺激提示。这些定向刺激提示充当细致入微的、特定于实例的提示和线索,指导LLM生成所需的结果,例如在生成的摘要中包含特定的关键字。我们的方法通过优化政策模型来探索使LLM与期望行为保持一致的定向刺激提示,从而回避了直接调整LLM的挑战。政策模型可以通过。原创 2024-03-10 10:52:10 · 1305 阅读 · 0 评论 -
Retrieve-Rewrite-Answer: A KG-to-Text Enhanced LLMs Framework for Knowledge Graph Question Answering
尽管大型语言模型(LLMs)在知识密集型任务中表现出色,但在记忆所有世界知识尤其是长尾知识方面仍有局限性。本文研究了知识图谱问题解答(KGQA)任务中需要丰富世界知识的知识增强语言模型方法。现有工作表明,检索知识图谱知识来增强语言模型的提示功能,可以显著提高语言模型在知识图谱问题解答中的性能。然而,这些方法缺乏对幼稚园知识的良好口头表述,即忽略了幼稚园表述与文本表述之间的差距。为此,我们提出了一种对答案敏感的 "KG-to-Text "方法,它可以将 KG 知识转化为对 KGQA 最有参考价值的文本化语句。原创 2024-06-29 11:07:48 · 1188 阅读 · 0 评论 -
The Reversal Curse: LLMs trained on “A is B” fail to learn “B is A”
我们揭示了自回归大型语言模型(LLM)中令人惊讶的泛化失败。如果模型在“A is B”形式的句子上进行训练,它不会自动泛化到相反的方向“B is A”,这就是反转诅咒。例如,如果一个模型接受“奥拉夫·肖尔茨是德国第九任总理”的训练,它将无法自动回答“谁是德国第九任总理?”的问题。此外,正确答案(“Olaf Scholz”)的可能性不会高于随机名称。因此,模型表现出逻辑演绎的基本失败,并且没有概括其训练集中的普遍模式(即,如果“A 是 B”发生,“B 是 A”更有可能发生)。原创 2024-03-20 10:27:23 · 617 阅读 · 0 评论 -
ChatRule: Mining Logical Rules with Large Language Models for Knowledge Graph Reasoning
逻辑规则对于揭示关系之间的逻辑联系至关重要,这可以提高推理性能并在知识图谱(KG)上提供可解释的结果。尽管人们已经做出了许多努力来挖掘知识图谱上有意义的逻辑规则,但现有的方法存在对规则空间的计算密集型搜索以及缺乏大规模知识图谱的可扩展性的问题。此外,他们经常忽略关系的语义,而这对于揭示逻辑联系至关重要。近年来,大型语言模型(LLM)由于其新兴能力和泛化性,在自然语言处理和各种应用领域表现出了令人印象深刻的性能。原创 2024-07-20 20:54:04 · 1693 阅读 · 0 评论 -
Query Rewriting for Retrieval-Augmented Large Language Models
大语言模型(LLM)在检索--然后阅读(retrieve--then--read)管道中发挥着强大的黑盒阅读器的作用,在知识密集型任务中取得了显著进展。这项工作从查询重写的角度出发,为检索增强型 LLMs 引入了一个新的框架,即重写-检索-阅读(Rewrite-RetrieveRead),而不是以前的检索-重写-阅读(Retrieve-then-read)。与之前侧重于调整检索器或阅读器的研究不同,我们的方法关注的是搜索查询本身的调整,因为输入文本与检索所需的知识之间不可避免地存在差距。原创 2024-06-29 10:34:01 · 1409 阅读 · 0 评论 -
GOLLIE : ANNOTATION GUIDELINES IMPROVE ZERO-SHOT INFORMATION-EXTRACTION
大型语言模型 (LLM) 与指令调优相结合,在泛化到未见过的任务时取得了重大进展。然而,它们在信息提取(IE)方面不太成功,落后于特定任务模型。通常,IE 任务的特点是复杂的注释指南,这些指南描述任务并向人类提供示例。以前利用此类信息的尝试都失败了,即使是最大的模型也是如此,因为它们无法遵循开箱即用的指南。在本文中,我们提出了 GoLLIE(IE 大型语言模型指南),该模型能够通过微调以符合注释指南,从而改进未见过的 IE 任务的零样本结果。原创 2024-07-20 20:35:33 · 1208 阅读 · 0 评论 -
TECHGPT-2.0: A LARGE LANGUAGE MODEL PROJECT TO SOLVE THE TASK OF KNOWLEDGE GRAPH CONSTRUCTION
大型语言模型在不同的自然语言处理任务中表现出强大的性能。本报告介绍了TechGPT-2.0项目,该项目旨在增强大型语言模型在知识图谱构建任务中的能力,包括NLP应用中的命名实体识别(NER)和关系三重提取(RTE)任务。此外,它还可以作为中国开源模型社区研究的法学硕士。我们提供了两个7B大型语言模型权重和一个专门用于处理冗长文本的QLoRA权重。值得注意的是,TechGPT-2.0是在华为Ascend服务器上进行培训的。原创 2024-07-10 21:08:43 · 1415 阅读 · 0 评论 -
大语言模型融合知识图谱的问答系统研究
问答系统(Question Answering,QA)能够自动回答用户提出的自然语言问题,是信息检索和自然语言处理的交叉研究方向,将知识图谱(Knowledge Graph,KG)与问答系统融合,正确理解用户语义是一大挑战。虽然知识图谱问答能够通过对问题进行分析理解,最终获取答案,但面对自然语言的灵活性与模糊性,如何处理复杂问题的语义信息、如何提高复杂推理问答的高效性仍是研究难点。原创 2024-07-04 19:42:27 · 1575 阅读 · 0 评论 -
In-Context Learning with Topological Information for LLM-Based Knowledge Graph Completion
知识图对于结构化信息的表示和推理至关重要,支持广泛的应用,如信息检索、问题回答和决策制定。然而,它们的有效性常常受到不完整性的阻碍,限制了它们对现实世界影响的潜力。虽然知识图完成(KGC)已经在文献中被广泛研究,但是生成式人工智能模型,特别是大型语言模型(LLM)的最新进展已经引入了新的创新机会。上下文学习最近成为一种有前途的方法,用于在一系列自然语言处理任务中利用LLM的预训练知识,并在学术界和工业界被广泛采用。然而,如何利用语境学习进行有效的KGC仍然相对探索不足。原创 2024-10-09 21:36:56 · 963 阅读 · 0 评论 -
Automated Construction of Theme-specific Knowledge Graphs
尽管知识图谱 (KG) 广泛应用于问答、智能对话系统等各种任务,但现有的 KG 面临两大挑战:信息粒度有限和时效性不足。这严重阻碍了从 KG 中检索和分析上下文中、细粒度和最新的知识,特别是在高度专业化的主题(例如专业的科学研究)和快速发展的上下文(例如突发新闻或灾难跟踪)中。为了应对这些挑战,我们提出了主题特定的知识图谱(即 ThemeKG),即从主题特定语料库构建的 KG,并设计了一个用于 ThemeKG 构建的无监督框架(名为 TKGCon)。原创 2024-09-21 10:14:24 · 1569 阅读 · 0 评论 -
Unlock the Power of Frozen LLMs in Knowledge Graph Completion
传统的知识图完成(KGC)方法仅仅依赖于结构信息,难以克服知识图固有的稀疏性。大型语言模型(LLM)通过强大的上下文建模从大型语料库中学习广泛的知识,这使得它们有望减轻以前方法的局限性。直接微调LLM提供了强大的功能,但代价是巨大的时间和内存消耗,而利用冻结的LLM会产生次优的结果。在这项工作中,我们的目标是有效和高效地利用KGC LLM。我们通过使用提示刺激LLM的中间层来捕获知识三元组的上下文感知隐藏状态。然后,我们在这些隐藏状态上训练一个数据有效的分类器,以利用在KGC冻结的LLM的固有能力。原创 2024-10-15 21:37:48 · 777 阅读 · 0 评论 -
CHAIN-OF-KNOWLEDGE: Integrating Knowledge Reasoning into Large Language Models by Learning from Know
大型语言模型 (LLM) 在各种自然语言处理 (NLP) 任务中表现出令人印象深刻的熟练程度,这些任务涉及越来越复杂的推理。知识推理是一种主要的推理类型,旨在从现有知识中获取新知识。虽然知识推理在知识图谱 (KG) 的背景下得到了广泛的研究,但 LLM 中的知识推理仍未得到充分探索。在本文中,我们介绍了 CHAINOF-KNOWLEDGE,这是一个全面的知识推理框架,包括数据集构建和模型学习的方法。对于数据集构建,我们通过对 KG 进行规则挖掘创建 KNOWREASON。原创 2024-09-24 11:36:59 · 810 阅读 · 0 评论 -
Re-TASK: Revisiting LLM Tasks from Capability, Skill, and Knowledge Perspectives
随着大型语言模型(LLM)规模的不断扩大,其增强的性能通常不足以解决特定领域的任务。系统地分析它们的故障并有效地提高它们的性能仍然是重大的挑战。本文介绍了Re-TASK framework,这是一个新的理论模型,它以Bloom的分类法和知识空间理论为指导,从能力、技能和知识的角度重新审视LLM任务。Re-TASK框架提供了一个系统的方法来加深我们对特定领域任务的LLM的理解、评估和增强。它探索了LLM的能力、处理的知识和应用的技能之间的相互作用,阐明了这些要素是如何相互联系并影响任务绩效的。原创 2024-09-27 22:05:02 · 896 阅读 · 0 评论 -
Efficient Knowledge Infusion via KG-LLM Alignment
为了解决大型语言模型中特定领域知识匮乏的问题,知识图检索扩充方法被证明是一种有效的知识注入技术。然而,现有方法面临两个主要挑战:公共可用知识图和手头任务的特定领域之间的知识不匹配,以及LLM与知识图的信息一致性差。在本文中,我们利用一个小的标注样本集和一个大规模的语料库,通过LLM有效地构建特定领域的知识图,解决知识不匹配的问题。此外,我们提出了一个三阶段的KG-LLM对齐策略,以增强LLM利用知识图信息的能力。我们在两个生物医学问答数据集上进行了有限样本的实验,结果表明我们的方法优于现有的基线。原创 2024-10-02 17:34:32 · 987 阅读 · 0 评论 -
AttacKG+: Boosting Attack Knowledge Graph Construction with Large Language Models
攻击知识图谱构建旨在将文本网络威胁情报 (CTI) 报告转换为结构化表示,描绘网络攻击的演化轨迹。尽管先前的研究提出了构建攻击知识图谱的各种方法,但它们通常存在对各种知识类型的泛化能力有限以及模型设计和调整需要专业知识的问题。为了解决这些限制,我们寻求利用大型语言模型 (LLM),该模型在语言理解和零样本任务完成方面都具有出色的能力,在广泛的任务中取得了巨大的成功。因此,我们提出了一个基于 LLM 的全自动框架来构建攻击知识图谱,名为:AttacKG +。原创 2024-09-23 21:33:53 · 1733 阅读 · 0 评论 -
Extract, Define, Canonicalize: An LLM-based Framework for Knowledge Graph Construction
在这项工作中,我们对从输入文本创建知识图谱 (KGC) 的自动化方法感兴趣。大型语言模型 (LLM) 的进展促使最近有一系列研究将它们应用于 KGC,例如通过零样本/少样本提示。尽管这些模型在小型领域特定数据集上取得了成功,但它们在扩展到许多实际应用中常见的文本时仍面临困难。一个主要问题是,在先前的方法中,必须将 KG 模式包含在 LLM 提示中才能生成有效的三元组;更大更复杂的模式很容易超出 LLM 的上下文窗口长度。原创 2024-09-21 10:32:37 · 1409 阅读 · 0 评论 -
Exploring Large Language Models for Knowledge Graph Completion
知识图谱在许多人工智能任务中发挥着至关重要的作用,但它们经常面临不完整的问题。在本研究中,我们探索利用大型语言模型 (LLM) 来完成知识图谱。我们将知识图中的三元组视为文本序列,并引入一个称为知识图谱 LLM (KGLLM) 的创新框架来对这些三元组进行建模。我们的技术使用三元组的实体和关系描述作为提示,并利用响应进行预测。在各种基准知识图谱上的实验表明,我们的方法在三元组分类和关系预测等任务中达到了最先进的性能。原创 2024-09-19 15:07:55 · 1609 阅读 · 0 评论 -
Contextualization Distillation from Large Language Model for Knowledge Graph Completion
虽然文本信息显著增强了预训练语言模型(PLM)在知识图完成(KGC)中的性能,但是从维基百科文章或同义词集定义中收集的现有语料库的静态和噪声性质通常限制了基于PLM的KGC模型的潜力。为了克服这些挑战,我们引入了语境化提取策略,这是一种通用的即插即用方法,与区分性和生成性KGC框架兼容。我们的方法首先指示大型语言模型(LLM)将紧凑的结构三元组转换成上下文片段。随后,我们引入了两个定制的辅助任务——重建和语境化——允许较小的KGC模型从这些丰富的三元组中吸收见解。原创 2024-10-15 21:57:24 · 1088 阅读 · 0 评论 -
LLM-based Multi-Level Knowledge Generation for Few-shot Knowledge Graph Completion
知识图(KGs)在各种NLP应用中是关键的,但经常与不完全性斗争,特别是由于长尾问题,其中不频繁、不受欢迎的关系大大降低了KG完成性能。在本文中,我们重点关注少镜头知识图完成(FKGC),这是一个解决长尾情况下这些差距的任务。在大型语言模型的快速发展中,我们提出了一个基于生成的FKGC范式。我们的MuKDC框架采用多层次的知识提炼来完成少量的KG,生成补充知识来缓解少量环境中的数据匮乏。MuKDC由两个主要部分组成:多层次知识生成,它丰富了各个层次的知识,以及一致性评估,以确保所生成知识的一致性和可靠性。原创 2024-10-09 21:52:24 · 1193 阅读 · 0 评论 -
Making Large Language Models Perform Better in Knowledge Graph Completion
基于大型语言模型(LLM)的知识图补全(KGC)旨在用LLM预测知识集中缺失的三元组。然而,关于基于LLM的KGC的研究未能充分利用LLM的推理能力,忽略了kg的关键结构信息。在本文中,我们探索了将结构信息整合到LLMs中的方法,其首要目标是促进结构感知推理。我们首先讨论了现有的LLM范式,如上下文学习和教学调整,提出了基本的结构信息注入方法。然后,我们提出了一个知识前缀适配器(KoPA)来实现这一目标。KoPA使用一个结构性的预训练阶段来理解kg内部复杂的实体和关系,将它们表示为结构嵌入。原创 2024-10-10 21:53:33 · 1076 阅读 · 0 评论 -
Knowledge Graph Large Language Model (KG-LLM) for Link Prediction
知识图谱 (KG) 中的多跳链接预测任务是知识图谱分析领域的一项挑战,因为它要求模型在做出预测之前推理并理解所有中间连接。在本文中,我们介绍了知识图谱大型语言模型 (KG-LLM),这是一个利用大型语言模型 (LLM) 执行知识图谱任务的新型框架。我们首先将结构化知识图谱数据转换为自然语言,然后使用这些自然语言提示来微调 LLM,以增强 KG 中的多跳链接预测。通过将 KG 转换为自然语言提示,我们的框架旨在学习实体及其相互关系的潜在表示。原创 2024-09-19 15:21:14 · 1948 阅读 · 0 评论 -
Docs2KG: Unified Knowledge Graph Construction from Heterogeneous Documents Assisted by Large Languag
即使保守估计,80% 的企业数据也驻留在非结构化文件中,存储在可容纳异构格式的数据湖中。传统搜索引擎已无法满足信息搜索需求,尤其是当任务是浏览和探索以形成见解时。换句话说,没有明显的搜索关键字可用。知识图谱由于其自然的视觉吸引力可以减少人类的认知负荷,成为异构数据集成和知识表示的最佳候选者。在本文中,我们介绍了 Docs2KG,这是一种新颖的框架,旨在从多样化和异构的非结构化文档(包括电子邮件、网页、PDF 文件和 Excel 文件)中提取多模态信息。原创 2024-09-22 10:39:43 · 1497 阅读 · 0 评论 -
Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question AnsweringGe
为了解决大型语言模型中知识不足和容易产生幻觉的问题,许多研究试图将大型语言模型与知识图相结合。然而,所有这些方法都是在传统的知识图问题回答(KGQA)上用完整的KGs进行评估的,其中每个问题中涉及的事实三元组都被给定的KGs完全覆盖。在这种情况下,LLM主要作为一个代理,通过探索KG来寻找答案实体,而不是有效地整合内部和外部的知识源。然而,在现实世界的场景中,知识通常无法涵盖回答问题所需的所有知识。原创 2024-10-13 19:40:25 · 1037 阅读 · 0 评论 -
ENHANCING TEXT-BASED KNOWLEDGE GRAPH COMPLETION WITH ZERO-SHOT LARGE LANGUAGE MODELS: A FOCUS ON SEM
利用文本实体描述的基于文本的知识图完成(KGC)方法的设计和开发处于研究的前沿。这些方法涉及高级优化技术,如软提示和对比学习,以增强KGC模型。基于文本的方法的有效性很大程度上取决于训练数据的质量和丰富程度。大型语言模型(LLM)可以利用简单的提示来更改文本数据,从而支持KGC的数据扩充。然而,LLM通常需要大量的计算资源。为了解决这些问题,我们引入了一个称为KGC约束提示(CP-KGC)的框架。这个CP-KGC框架设计了适应不同数据集的提示,以增强语义的丰富性。原创 2024-10-13 18:58:56 · 1312 阅读 · 0 评论 -
KICGPT: Large Language Model with Knowledge in Context for Knowledge Graph Completion
知识图完备化(KGC)对于解决知识图不完备性和支持下游应用至关重要。已经为KGC提出了许多模式。它们可以分为两大类:基于三元组的方法和基于文本的方法。由于有限的结构信息和不平衡的实体分布,基于三元组的方法难以处理长尾实体。基于文本的方法缓解了这个问题,但需要对语言模型进行昂贵的训练,并对知识图进行特定的微调,这限制了它们的效率。为了缓解这些限制,在本文中,我们提出了KICGPT,一个集成了大型语言模型(LLM)和基于三重的KGC检索器的框架。它缓解了长尾问题,而不会导致额外的培训开销。原创 2024-10-10 21:15:36 · 1214 阅读 · 0 评论 -
Towards Semantically Enriched Embeddings for Knowledge Graph Completion
基于嵌入的知识图谱 (KG) 补全在过去几年中受到了广泛关注。大多数当前算法都将 KG 视为多向标记图,缺乏捕获示意图信息背后的语义的能力。这篇立场文件修改了现有技术水平,并讨论了现有 KG 补全算法的几种变体,并根据所用语义的表达水平逐步讨论这些变体。本文首先分析了仅考虑事实信息的各种 KG 补全算法,例如传导和归纳链接预测和实体类型预测算法。然后,它利用大型语言模型作为背景知识修改了算法。之后,它讨论了逐步利用语义信息(例如 KG 中的类层次结构信息和不同描述逻辑公理中表示的语义)的算法。原创 2024-09-20 11:02:50 · 1536 阅读 · 0 评论 -
Finetuning Generative Large Language Models with Discrimination Instructions for Knowledge Graph Com
传统知识图谱 (KG) 补全模型通过学习嵌入来预测缺失的事实。最近的研究尝试使用大型语言模型 (LLM) 以文本生成的方式完成 KG。然而,他们需要将 LLM 的输出接地到 KG 实体,这不可避免地会带来错误。在本文中,我们提出了一个微调框架 DIFT,旨在释放 LLM 的 KG 补全能力并避免接地错误。给定一个不完整的事实,DIFT 采用轻量级模型来获取候选实体,并使用判别指令对 LLM 进行微调以从给定的候选实体中选择正确的实体。原创 2024-09-22 10:28:36 · 1601 阅读 · 0 评论