Imagination Augmented Generation: Learning to Imagine Richer Context for Question Answering

本文提出想象增强生成(IAG)框架,模仿人类仅凭想象回答问题的能力,以弥补大型语言模型(LLM)在问答中的知识缺陷。IAG指导下的IMcQA方法通过显式和隐式想象模块激活LLM的内在知识,提高问答性能,尤其在开放域和闭书环境下表现突出。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Imagination Augmented Generation: Learning to Imagine Richer Context for Question Answering over Large Language Models》的翻译。

想象增强生成:在大型语言模型上学习想象更丰富的问答上下文

摘要

已经提出了检索增强生成和生成增强生成来增强大型语言模型(LLM)上的问题回答所需的知识。然而,前者依赖于外部资源,两者都需要将明确的文档纳入上下文中,这导致了更长的上下文,从而导致更多的资源消耗。最近的工作表明,LLM已经对丰富的知识进行了建模,尽管没有有效地触发或激活。受此启发,我们提出了一个新的知识增强框架,即想象增强生成(IAG),它模拟了人类在不依赖外部资源的情况下,仅通过想象回答问题的同时弥补知识缺陷的能力。在IAG的指导下,我们提出了一种想象更丰富的上下文问答方法(IMcQA),该方法通过以下两个模块获得更丰富的语境:通过长上下文压缩生成短伪文档的显式想象和通过HyperNetwork生成适配器权重的隐式想象。在三个数据集上的实验结果表明,IMcQA在开放域和闭书环境中,以及在分发内性能和分发外推广方面都表现出显著的优势。

1 引言

2 相关工作

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值