Y2读论文
文章平均质量分 92
GCTTTTTT
hello~
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models论文阅读
ICML 2025链式推理(CoT)被广泛采用,通过自回归地生成一系列推理步骤来增强大型语言模型(LLM)的推理能力。—>推理过程以逐步解码的令牌序列进行表示,在此过程中可能会出现错误的累积,导致推理路径和答案出现虚假内容—>为了获取用于推理的推理路径,大多数先前研究采用了检索式或Agent式范式,分别见图 2 (a) 和 (b)。然而,检索式方法,而Agent式方法则。为了解决这些问题,图约束推理(GCR):包含三个主要组成部分:1):构建知识图谱的以指导大型语言模型推理;2)原创 2025-09-08 20:39:20 · 933 阅读 · 0 评论 -
TRIPLES AS THE KEY: STRUCTURING MAKES DECOMPOSITION AND VERIFICATION EASIER IN LLM-BASED TABLEQA阅读
分解-推理-验证过程高度依赖于人工构造的思维链(Chain-of-Thought, CoT)提示,大语言模型难以发现其自身生成的答案中的问题。此外,由于大语言模型(LLM)的倾向,构建的验证示例会促使LLM进行自我纠正,从而导致其更容易生成相互矛盾的观点,这妨碍了TableQA中答案的准确验证。但仅依靠少量示例进行直接分解,通常会导致子问题的碎片化, 忽略了关键信息。这导致分解后的子问题与原始问题之间存在显著的语义鸿沟。原创 2025-09-08 11:34:04 · 664 阅读 · 0 评论
分享