- 博客(1231)
- 收藏
- 关注
原创 论文浅尝 | 利用条件语句激发和提升大语言模型的因果推理能力(CL2025)
这些发现表明,代码,特别是代码中的条件语句,通过提示和微调在引发和提高语言模型的因果推理能力方面可以发挥重要作用。证明,在执行复杂因果推理任务时,代码语言模型优于相同结构的通用语言模型。的训练数据观察到最大的性能提升,这表明仅用少量(少于一千条)条件语句代码,模型的因果推理能力就能大幅提高。代码语言模型在大多数设置下仍然优于相应的通用语言模型,并且对于大多数模型来说,代码提示优于文本提示。代码大语言模型比通用大语言模型更擅长因果推理,并且对于大多数模型来说,代码提示比文本提示更有效。
2025-11-24 19:40:32
190
转载 技术动态 | 知识图谱如何用于生成大模型复杂多跳推理数据?基于wiki百科+迭代合成的思路
注意,还特意做的模糊化,用来提升问题难度,例如,时间模糊化:"2019年"→"某个以9结尾的年份",*机构模糊化**:"清华大学"→"位于北京的知名理工科大学",人物模糊化:"张三教授"→"某位在该领域有重要贡献的学者",数值模糊化:"50万人"→"规模约为中等城市人口的群体"。,如果当前没有搜索树,使用默认问题启动循环,生成PlannerAgent的提示,调用OpenAIAPI获取PlannerAgent的输出,从输出中提取动作和实体,如果API调用失败,任务终止。
2025-11-21 19:41:04
33
转载 技术动态 | 中医药知识图谱与大模型融合的智能中药处方生成模型
本文提出了一种基于TCM KG和LLM的智能中药处方生成模型TCM-KLLaMA,通过新的输出层和SMKI机制有效减少了幻觉现象,提高了处方生成的准确性。在将知识从KG注入文本表示或模型时,由于语言的多样性和复杂性,输入文本中的症状描述可能与KG中的实体同义,导致精确匹配失败,限制了知识注入的效果。,结合同义词词典和相似性匹配,实现了高效的知识检索和注入。改进了大型模型的输出层和训练损失函数,有效抑制了在药物推荐过程中生成无关或错误信息的现象,验证了大型模型在生成中医药处方任务中的强大能力。
2025-11-19 19:40:50
29
原创 论文浅尝 | 通过自适应对数融合与注意力重分配提升多模态大语言模型的知识利用率(NeurIPS2025 Oral)
参数化知识与检索所得的上下文知识之间可能发生冲突,即使情境知识正确,模型仍倾向于过度依赖自身参数知识,导致上下文知识利用不足并产生错误回答。为此,本研究提出了一种无需训练即插即用的方法,通过动态调整注意力分配并平衡两类知识,以促进多模态大语言模型更有效地利用检索增强生成中的上下文知识,从而提升其在多种任务中的回答准确性。视觉标记与上下文标记之间存在注意力偏差,模型在浅层往往更关注图像标记,而图像本身对于知识密集型问题通常信息不足,同时模型对所有上下文标记给予均等关注,未能突出查询相关的重要知识;
2025-11-17 19:40:18
379
转载 征稿截止日期延期 | 第3届神经符号融合研讨会@ AAAI 2026
尽管多步推理与代码提示可提升模型性能,但LLMs是否具备真正的符号推理能力仍不确定,这也带来了潜在风险。随着首个无需训练数据即可实现严格(symbolic-level)三段论推理的“球神经网络”(Sphere Neural Network)出现,本次研讨会旨在汇聚自然语言处理(NLP)与知识图谱(KG)推理领域的学者与实践者,探讨神经与符号方法的结合、复杂推理的学习与蒸馏等问题。用于自然语言处理(NLP)的神经-符号解析方法 (Neuro-symbolic parsing methods for NLP)
2025-11-14 19:40:32
37
转载 技术动态 | HaluMem:让AI记忆系统的“幻觉”现形——首个面向记忆系统的操作级幻觉评测基准
如图2所示,HaluMem 首创了三阶段幻觉拆解机制(记忆抽取、记忆更新、记忆问答),并构建了上下文超过 100万 tokens 的人机对话数据集,系统性地揭示主流记忆系统(Mem0、Memobase、Supermemory 、Zep等)在不同阶段的幻觉模式与传播规律。要实现长期、可信的智能行为,需要构建更稳健的长期记忆体系,同时提升提取与更新效率与质量,并强化推理能力与自适应机制,以支撑复杂、动态和多轮任务的智能交互。在时效性分析中,我们比较了各记忆系统在“写入对话”与“记忆检索”两个阶段的耗时表现。
2025-11-12 10:45:45
99
转载 技术动态 | 突破传统限制:AutoSchemaKG如何实现全自动知识图谱构建
值得注意的是,我们的模式归纳实现了与人工制定的模式95%的语义对齐,且零手动干预,展示了其强大的能力。AutoSchemaKG展示了在无需专家干预的情况下,构建数十亿规模的知识图谱的可能性,为大语言模型中的参数知识提供了有价值的补充。,指导大型语言模型检测文本中的事件之间的因果、时间或逻辑关系,生成(v1,r,v2)形式的三元组,其中v1和v2是事件节点,r是关系类型。:AutoSchemaKG引入了一种新的方法,可以从文本中直接生成全面的模式,无需预定义的本体,同时保持语义一致性和领域覆盖范围。
2025-11-10 19:40:59
77
原创 论文浅尝 | RAG4GFM:通过图检索增强生成弥合图基座模型的知识缺口(NeurIPS2025)
实验表明,该框架在跨领域、跨任务场景下均能带来稳定且显著的性能增益,同时保持计算与内存的高效性。OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。图表示学习近年来在电商推荐、知识图谱、分子发现等领域取得了显著进展。:生成虚假节点特征、臆造不存在的边,导致与真实图结构背离,降低业务可信度。),仍需反向传播与梯度存储,耗时数小时至数天,且易引发灾难性遗忘。图),自适应选择特征子空间与检索算子,并采用倒数排序融合(
2025-11-07 19:40:18
560
转载 技术动态 | ByoKG-RAG方案:用于知识图谱问答的多策略图检索
通过基于图的重排检索排名前k的三元组,这个思路为给定链接的实体E和查询q,图重排器模块通过重排,在E的L跳邻域内的三元组来检索前K个最相关的三元组,重排阶段采用交叉编码。LLM作为知识图谱链接器(KG-Linker),生成多样化的图构件,然后通过专门的图工具将这些构件链接到知识图谱中,并通过多种检索方法检索相关上下文。,作为补充方法,通过捕捉可能被直接检索遗漏的相关事实来工作,采用两种方法:agent遍历和基于评分的检索。,基于文本的检索方案,基于问题-三元组的嵌入相似性检索排名前k的三元组。
2025-11-05 19:40:39
36
转载 技术动态 | LinKQ可视化:大模型与图谱双轮驱动下的可信知识发现工作流之旅
通过对14位从业者的定性评估,我们发现,由于LinkQ的“有用”可视化效果,即使用户的LLM回答有误,用户也倾向于过度信任LinkQ的输出。此外,研究还表明,LLMs辅助的KG系统应根据用户的经验和知识水平进行定制,以避免一刀切的设计。尽管LinkQ的设计初衷是帮助用户理解LLM的工作流程,但研究发现用户有时会过度信任LLM的输出,尤其是在可视化设计“直观”的情况下。这些结果表明,虽然可视化设计有助于提高用户对LLMs的信任度,但也需要解决过度信任的问题,以提高系统的可靠性和用户的使用体验。
2025-11-03 19:40:54
36
原创 论文浅尝 | 图约束推理:在知识图谱上实现大语言模型的忠实推理(ICML2025)
GCR(Graph-constrained Reasoning,图约束推理)框架的核心思想,是将结构化的知识图谱(Knowledge Graph, KG)直接融入大语言模型(LLM)的解码过程,使模型在生成推理路径时受制于图结构,从而确保推理过程的真实性与可解释性。GCR旨在将KG中的结构化知识与LLM的非结构化推理能力无缝结合,通过一种创新的解码机制,确保LLM的每一步推理都有据可循,从而实现零幻觉的忠实推理。实验表明,即使仅使用0.5B参数的小模型,通过这种图约束训练,也能在KG推理中取得优异性能。
2025-11-01 19:41:04
924
转载 技术动态 | 构建自我进化的知识图谱:AI Agent系统赋能新时代
一方面,科技日新月异,业务与技术的模式远非2024年初可同日而语,从编码、管理到日常操作,变化的步伐不断加快。一旦需求发生变化,比如原来表格只存储身高体重,没有考虑职业,如果后期需要分析职业与健康的相关性,不得不重新设计表结构、重复抽取数据,效率低下且容易出错。真正的突破,在于让知识随新数据持续自我丰富与完善,就像人类大脑的认知,不断积累、强化、多维连接。实体、属性、关系全部可以无缝映射至图谱,同时保持数据治理、版本控制与访问规则的不变,提升数据响应业务场景的弹性与智能度。
2025-10-30 19:40:32
56
转载 技术动态 | 时序感知知识图谱驱动企业智能未来:Graphiti如何革新大模型AI Agent记忆
结合Neo4j的强大支持,Graphiti不仅解决了动态数据处理的核心难题,还为未来的智能代理系统提供了坚实的记忆基础设施。本文深入探讨了Zep AI推出的Graphiti框架,一种基于图数据库构建的实时、时序感知的知识图谱引擎,旨在为AI代理提供动态记忆支持。传统的RAG方法在数据频繁更新的场景中往往力不从心,无法为基于代理的系统提供有效的支持。本文将详细解析Graphiti的工作原理,并将其与微软研究的GraphRAG(一种基于查询聚焦摘要的实现方式)进行对比,探讨其在动态数据环境中的独特优势。
2025-10-25 19:40:48
147
原创 论文浅尝 | LightPROF:一种轻量级推理框架,用于大型语言模型在知识图谱上的应用(AAAI2025)
尽管大型语言模型在知识图谱上的推理展现出巨大潜力,但仍然面临若干挑战:首先,知识图谱的内容通常以大量文本内容的形式直接表示,这无法有效传达其图结构中对推理至关重要的丰富逻辑关系。的高效推理,开发了一种精细的知识适配器,可以有效解析图结构并进行细粒度的信息整合,从而将推理图凝聚为较少的令牌,并通过投影器与。通过以更细的颗粒度结合文本信息和结构细节,知识适配器帮助模型深入理解推理图中的知识,从而实现更精确的推理。的编码阶段,我们将表示推理图的知识软提示插入硬提示的特定位置,以有效地注入外部知识。
2025-10-23 19:40:55
410
转载 SIG动态 | OpenKG召开KAG知识增强生成开源框架工作讨论会
本次会议进一步明确了接下来的工作重点,为后续的开发与社区协作打下了基础。:利用MCP(Model Context Protocol)框架作为实现知识图谱工具调用的核心,并讨论了工具调用的接口规范化与技术路径,以促进社区协作与工具共建。:为提升框架的轻量化与灵活性,社区计划对KAG进行解耦和模块化重构,并开发独立的WebUI界面,使其能够更方便地适配和应用于不同领域。OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。
2025-10-21 16:55:02
42
转载 征稿通知 | 第三届神经符号融合研讨会@AAAI 2026
随着首个无需训练数据即可实现严格(symbolic-level)三段论推理的“球神经网络”(Sphere Neural Network)出现,本次研讨会旨在汇聚自然语言处理(NLP)与知识图谱(KG)推理领域的学者与实践者,探讨神经与符号方法的结合、复杂推理的学习与蒸馏等问题。探索结合符号与神经架构的混合模型的创新应用 (Innovative applications of hybrid models combining symbolic and neural architectures)
2025-10-18 10:59:43
146
转载 开源开放 | EasyEdit升级新版本提升大模型调控能力
推理时干预和调控指的是:在不修改模型参数的前提下,在模型推理阶段对生成过程进行即时控制。具体来说,它通过注入可组合的干预向量(steering vectors)、调整提示结构(prompting),或者修改解码策略(decoding methods,例如温度采样、束搜索、采样概率重加权等),来引导模型输出符合目标行为。对比命令行输出中的模型原始响应(Orig Output)与干预后的响应(Steered Output),可以清楚看到思维链被显著缩短,同时答案保持正确,实现了预期的行为控制。
2025-10-15 19:06:32
82
转载 会议交流 | 知识驱动下的复杂推理与应用——第九届知识图谱技术论坛 | CNCC
以一作或通讯作在Nature Machine Intelligence、Nature Computional Science, Nature Communications、NeurIPS、ICLR、ICML、IJCAI、AAAI、ACL、EMNLP、WWW、KDD、VLDB、ICDE、SIGIR、ACM Computing Survey、Proc. IEEE等国际顶级会议或期刊上发表多篇论文。本报告将介绍当前知识图谱增强的 Agent在华为鸿蒙(小艺),以及金融、医疗、工业等多个行业中的应用。
2025-10-14 15:57:34
214
转载 技术动态 | DO-RAG:一种使用知识图谱增强检索辅助生成的领域特定问答框架
这些发现展示了DO-RAG在特定领域中提供稳健、高精度问答的有效性,统一了结构化知识表示和生成推理,为可扩展和自适应的信息系统提供了可靠的基础。:该问题的研究相关工作有:早期基于规则的方法、集成结构化知识的先进方法、大型语言模型(LLMs)在通用领域的应用、以及RAG框架在提高事实一致性的应用。:在数据库和电气工程领域的专家策划基准测试中,DO-RAG实现了接近完美的上下文召回率和超过94%的答案相关性,比现有RAG平台高出高达33.38%。答案相关性、上下文精确度和忠实度的变化揭示了模型之间的特定优势。
2025-10-13 19:40:29
82
原创 论文浅尝 | 基于知识的视觉问答中模态感知与大语言模型的集成(ACL2024)
该方法首先通过精心设计的提示挖掘大语言模型中的隐式知识构建耦合图(即场景图和概念图),然后使用伪孪生图中介融合机制,整合各种多模态信息,实现预测。该方法利用两个图中共享的提及实体作为中介,实现紧密的跨模态信息交互,同时通过将融合限制在中介部分,最大限度地保留模态内部的深层学习能力。现有的方法已经尝试将大语言模型(LLMs)作为隐式知识引入,然而这些方法仍然面临一些挑战:其一:LLMs 存在幻觉,其二:多源知识(如图像、知识图谱与 LLMs)之间难以在复杂场景中实现对齐。中相同中介节点的表示。
2025-10-10 19:40:37
414
转载 技术动态 | 知识图谱本体生成:RAG用于Mysql数据转换及非结构化文本生成思路
(https://arxiv.org/pdf/2506.01232),介绍了一种名为RIGOR(Retrieval-augmented Iterative Generation of RDB Ontologies)的方法,用于将关系数据库转换为丰富的OWL本体。》(https://arxiv.org/pdf/2506.00664),提到一种在从非结构化知识库中提取本体的方法,重点关注电气继电器文档,也是对上面文章的补充。,通过聚类关键元素形成本体类,并将关系投影到这些类上,形成知识图谱;
2025-10-08 19:40:30
82
转载 技术动态 | 大模型时代知识图谱驱动的企业知识大脑
表格、文本、语音等多模态数据,经知识抽取构建基础图谱,再经知识加工完善图谱信息提升图谱质量,在高质量图谱数据的支撑下提供多模态搜索、可视化探查、智能问答等功能。(2)图谱平台以星海知识图谱平台为支撑,提供包括知识构建、知识补全、知识管理与知识质量在内的高质量知识图谱构建能力,并提供包括知识计算、图谱问答、多模态搜索、可视化分析在内的图谱分析能力。从知识图谱来看,图谱作为一种图结构的数据组织、管理、查询、计算技术,提供了有效表征不同来源、不同结构、不同模态数据的方法。已经非常接近,具有简单易学的特点。
2025-10-06 19:41:04
94
原创 论文浅尝 | cnChemNER:中文化学命名实体识别数据集(ISWC2025)
高质量、系统化的数据标注使得模型能够更好地捕捉中文化学文本中的复杂实体结构,充分体现了数据集在推动中文化学智能信息处理方面的核心价值。不仅极大推动了中文化学智能文本处理的研究和应用,也为跨语种和跨领域任务提供了坚实的数据基础。方法和数据集难以直接迁移到中文环境,翻译或简单转换策略在实体边界和语义一致性上存在明显不足,因此亟需面向中文化学领域的高质量实体识别数据集。OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。
2025-10-03 19:01:19
923
转载 OpenKG 祝大家国庆·中秋双节快乐!
OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。,进入 OpenKG 网站。
2025-10-01 10:07:17
54
转载 技术动态 | 知识图谱大模型(KG-LLM)用于链接预测
这篇论文提出的KG-LLM框架通过将知识图谱转换为自然语言提示,并利用指令微调和上下文学习(ICL),显著提高了多跳链接预测任务的准确性。实验结果表明,KG-LLM框架不仅提升了生成性多跳链接预测的性能,还增强了模型在面对未见过的提示时的泛化能力。实验结果表明,KG-LLM框架在多跳链接预测任务中的表现优于传统方法和消融框架,特别是在复杂的多跳关系推理中表现突出。:ICL的引入显著提高了模型在未见过的任务中的泛化能力,特别是在WN18RR数据集上,Llama2和Gemma模型的准确率超过了70%。
2025-09-29 19:40:17
71
转载 技术动态 | 清华团队提出DeepDive:深度搜索Agent再迎新突破
图|训练奖励(a)和在 BrowseComp-266 上的评估准确率(b),以及在训练和评估过程中的平均工具调用次数(c),展示了强化学习(RL)如何逐步培养出更深层次的搜索策略。以上结果表明,复杂的监督和多轮强化学习共同为工具使用奠定了基础,模型的性能会随着工具调用预算和并行采样的增加而提升,并且在解决复杂问题时习得的技能可以迁移到更简单的场景中。实验表明,经过 RL 训练的模型在推理阶段比基线方法更有效地提升工具使用效率,这证明了工具调用在测试时的扩展性,从而有效提升长程推理能力和深度搜索能力。
2025-09-26 19:40:34
52
原创 论文浅尝 | GNN-RAG:基于图神经检索的知识图谱大语言模型高效推理(ACL2025)
在稠密子图上进行推理,即根据问题计算每个节点的相关性权重,并聚合邻居节点信息,逐层传播,最终输出候选答案节点及其与问题实体的最短路径。OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。实验表明,该方法在多跳、多实体问题中效果尤其突出,并在效率上优于长上下文检索。进行推理,既保证了复杂问题下的准确性,又大幅度降低了。调用来生成可执行的关系路径或遍历知识图谱,这在复杂的。(一种语义解析模型,可根据问题生成可执行的关系路径)
2025-09-24 19:41:07
689
转载 会议交流 | 从GenAI到Agent:生成式AI产业应用新范式
随着社会技术的发展,视频迅速成为大众日常生活的主要信息载体。针对企业法务智能文档业务中,长文档、复杂版面等场景带来的解析、抽取准确率低的问题,基于多模态文档理解与多模型融合等技术,提升文档处理的效果与自动化水平。深耕人工智能、自然语言处理、数据智能领域,目前就职阿里云高级算法专家,负责客服领域的系统和算法,曾先后大型生活服务电商平台、服务于互联网金融平台、智能客服创业公司,主导参与搜索、广告、推荐、金融风控、智能客服、知识图谱和自然语言处理平台等多条业务线,迄今已获得 20余项专利、定会论文10余篇。
2025-09-23 16:30:31
298
转载 技术动态 | 文档智能+知识图谱驱动大模型推理落地的一些思考及领域Embedding向量化的有趣进展
文档智能目前因为RAG的应用而受到广泛关注,其本身是作为解决知识库的文本解析问题,从而用于召回的,但说到召回,那就会必然涉及到召回对象的单元化、关联化问题,所以,很自然的,文档智能就能够解决这种原始数据标准化、数据原子单位的抽取和关联构建问题。比如,知识图谱能帮助模型在多个文档跳跃,并结合非结构化图谱信息,合成全局信息。-布局分析抽离图谱节点,目标检测任务,用于对文档进行区域划分,核心在于标签的定义:正文、标题、图片、图片标题、表格、表格标题、页眉、页脚、注释、公式等,也可以是化学式、分子结构式等;
2025-09-22 19:40:44
68
转载 论文浅尝 | Tree-KG: 让AI像人类一样构建知识图谱(ACL2025)
论文由此出发,提出了利用“人类自然采用的分层组织(比如教科书的章节结构)”作为构建 KG 的起点,既能降低标注/抽取成本,也能为后续的自动扩展提供良好骨架。但整体来看,Tree-KG 已经为我们打开了一条新路:从“人类的知识组织方式”出发,构建更符合认知习惯、又能自动进化的知识图谱。OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。这一发现成为Tree-KG设计的核心动机——模仿人类层次化组织知识的方式,构建更加智能的知识图谱。
2025-09-19 19:39:53
486
转载 技术动态 | 大模型时代面向图模互补的技术研究与应用
黄勃,工学博士,副教授,硕士生导师。此外,知识图谱还能对大模型的生成内容进行约束和修正,避免出现偏见或不合适的内容,增强其语义理解和实体识别能力,实现多模态知识融合,使大模型在多模态任务中表现更加出色。联合训练设计知识嵌入层,将知识图谱融入大模型训练,并改良注意力机制,使模型聚焦关键知识节点,如同为模型安装了精准的导航系统,使其能准确捕捉知识要点。同时,知识图谱为大模型提供可信度提升路径和知识可信度保障,通过知识验证修正错误、标注置值得分,为大模型输出可靠知识源,保障输出质量,评估知识准确性。
2025-09-17 19:40:29
543
转载 技术动态 | 从表面到深入:利用知识图谱和大模型整合外部知识以生成跟进问题
为了应对模型认知能力有限的挑战,我们设计了一种知识融合操作,通过指导大型语言模型(LLM)基于上下文继续编写先前获取的外部维基百科知识,以进一步提升模型对上下文的理解和认知。实验表明,与基线模型相比,我们的方法生成的问题更具信息量,更接近人类提问的水平,同时保持上下文相关性。相比之下,后续问题无法在之前的上下文中得到回答。总体而言,基线模型在后续问题生成任务中存在信息量和多样性不足的问题,而本文方法通过引入外部知识和知识图谱,显著提升了生成问题的信息量和多样性,同时在认知复杂度和用户满意度上也有显著提升。
2025-09-15 19:40:44
60
转载 技术动态 | 知识图谱激活 DeepSeek 智能体,图模互补重构企业专业知识管理
参编《数字数字产业化 体系、技术与落地实践》,《新程序员 · 人工智能新十年》顾问专家和文章作者,《新程序员 · 大模型时代的开发者》封面人物和文章作者,专注于大模型、知识图谱、通用人工智能 AGI、大模型、AI 大工程、NLP、认知智能、强化学习、深度学习等人工智能方向,并在金融、制造业、新能源等领域的人工智能产业落地具有丰富的经验。:大模型通过在海量文本数据上的训练,能够深入理解语言的语义和语境,不仅能处理常见的文本表述,还能对语义相近、表述不周的内容进行准确理解和分析,实现语义理解的泛化。
2025-09-12 19:41:05
293
原创 论文浅尝 | 自提示方法实现大语言模型的零样本关系抽取(ACL Findings 2024)
接着根据关系描述生成一组同义词,这些同义词可以是单个词汇或者是短语,但是都必须与原始的关系语义保持一致,最后整合同义词,生成的同义词与原始关系一起构成一个语义群组((3)展示了合成样本生成策略的重要性:通过消融实验,证明了关系同义词生成、实体过滤和句子重述等策略对提升模型性能的重要作用。)提出了一种新的方法,通过关系同义词生成、实体过滤和句子重述等策略,生成高质量、多样化的合成样本。):该框架通过一个三阶段的多样化方法生成合成样本,这些样本包含特定的关系类型,并作为上下文示例(
2025-09-10 19:40:40
325
转载 技术动态 | 知识图谱增强RAG用于难度可控问题生成思路及实现流程
从医疗数据集中提取问答对->使用LLM提取问答中的实体,并将这些实体映射到医疗知识图谱中的相应节点->识别知识图谱中连接问答实体的所有推理路径,并指导LLM剪枝不相关的路径->最终的推理路径送入大模型做生成cot->过滤出满足答案的cot,指导LLM生成医学上基于事实的CoT解释。》,https://arxiv.org/pdf/2505.07618,实现代码在https://github.com/mfshiu/kaqg,用来生成问题,当然,,如果有符合条件的组合,则打印组合并生成题目叙述;
2025-09-08 19:40:46
58
转载 技术动态 | OpenTCM:基于GraphRAG的传统中医药知识检索与诊断问答图谱增强大模型系统
转载公众号 | 知识图谱科技OpenTCM: A GraphRAG-Empowered LLM-based System for Traditional Chinese Medicine Knowledge Retrieval and Diagnosis前言这篇文章介绍了OpenTCM,一个基于图谱检索增强生成(GraphRAG)的大型语言模型(LLM)系统,用于传统中医(TCM)知识的检索和诊断。 这篇文章的研究背景是传统中医(TCM)作为古代医学知识的丰富宝库,在现代医疗保健中仍然具有重要价值。然而,由
2025-09-05 19:40:36
453
原创 论文浅尝 | 为知识图谱补全生成并评估合理的解释(ACL2024)
人工智能的解释应该对人类来说是合理的。未来的一个方向可以是收集一个新的 KGC 数据集,旨在探索面向用户的 XAI KGC,因为我们在人类评估中意识到,数据集应该具有高度的人类可理解性,以便进行有意义的人类评估,而现有 KGC 数据集在这方面可能存在局限性。这些梯度是在训练过程中使用 GR 收集的,反映了 KGC 模型的真实推理过程,从而保证了解释的一定程度的忠实性。另一方面,GradPath 的基于路径的解释旨在模拟人类在知识图谱上的推理,与仅基于单个训练三元组的解释相比,提高了合理性。
2025-09-03 19:40:56
440
转载 技术动态 | ReCellTy:基于领域知识图谱的大模型单细胞注释工作流程
ReCellTy有效地缩小了小型LLM(如GPT-40-mini,人工评估得分0.50,调整后提升至0.67)和大型LLM(如GPT-40,DeepSeek-chat,Claude 3.7,人工评估得分分别为0.62,0.55和0.61)之间的性能差距。该方法的核心在于构建一个结构化的知识图谱,并利用检索机制来增强LLM对实体关系的理解,从而提高注释的准确性。多任务工作流的引入,进一步模拟了人工注释的过程,将复杂的注释任务分解为多个步骤,每个步骤都利用知识图谱的信息进行推理和决策,最终提高注释的准确性。
2025-09-01 19:54:06
112
转载 技术动态 | 如何用知识图谱+医疗问答对合成推理数据?兼看Deep Research的两个复刻实现拆解
同样还是Deep Research的复刻,再来看看对应的实现,有两个工作,一个是u14app-deep-research,一个是deepresearch-local,重点看实现流程。,进行包含结构化章节、目录和深入探索的全面分析,创建结构合理的专业级报告,为每个章节单独进行研究,以确保全面覆盖,在各章节之间整合信息,实现连贯分析,包含引用和参考跟踪。问题中的实体跟答案中的实体都是已知的,只需要找到所有的可能路径,然后去除不相关的路径就行了,这个很工程化,亮点在于处理流程,还是比较依赖llm。
2025-08-29 19:40:24
131
原创 论文浅尝 | KG-TRICK:多语言知识图的统一文本和关系信息补全(COLING2025)
(2)现有研究的局限性:之前的研究将知识图谱补全(Knowledge Graph Completion,KGC,预测图谱中已定义的实体之间缺失的关系)和知识图谱增强(Knowledge Graph Enhancement,KGE,预测图谱中实体的缺失文本信息)视为独立任务,忽视了两者的关联性和互补性。包含10 种语言:阿拉伯语(AR)、德语(DE)、英语(EN)、西班牙语(ES)、法语(FR)、意大利语(IT)、日语(JA)、韩语(KO)、泰语(TH)、简体中文(ZH)。
2025-08-27 19:41:04
1019
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅