2025-NIPS-Causality Meets the Table: Debiasing LLMs for Faithful TableQA via Front-Door Intervention

在这里插入图片描述

文章核心总结与翻译

一、主要内容

该研究聚焦于表格问答(TableQA)任务中大型语言模型(LLMs)依赖训练语料中token共现模式导致的虚假关联和推理不可靠问题,提出了基于因果干预的框架CIT(Causal Intervention TableQA)。

  1. 问题背景:现有LLM-based TableQA方法(直接提示DP、智能体Agent范式)虽表现优异,但易受预训练数据中token共现偏差影响(如"exactly"常与"yes"共现导致误判),形成虚假因果路径,缺乏真实推理能力。
  2. 核心思路:将TableQA建模为结构化因果图,识别token共现模式为潜在混杂因子,采用前门调整(front-door adjustment)消除偏差,无需直接访问混杂因子或模型内部结构。
  3. 框架构成
    • 问题变体生成:生成语义一致、表面形式不同的问题变体,减少词汇偏差;
    • 证据聚合:汇总各变体的相关证据,提升覆盖完整性;
    • 答案推理:结合DP(自然语言逐步推理)和Agent(符号化代码执行)两种范式;
    • 联合投票:通过多数投票整合两类推理结果,确定最终答案。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值