RECOMP: Improving Retrieval-Augmented LMs with Compression and Selective Augmentation

828 篇文章

已下架不支持订阅

本文提出RECOMP方法,通过压缩检索文档并进行选择性增强,降低推理成本,提高语言模型在各种任务中的性能。研究了提取压缩器和抽象压缩器,能够在保持性能的同时显著压缩文档,且能选择性地不增强无关文档。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《RECOMP: Improving Retrieval-Augmented LMs with Compression and Selective Augmentation》的翻译。

摘要

在推理时检索文档并在上下文中为其做准备可以提高语言模型在各种任务中的性能。然而,这些文件往往跨越数百个单词,使推理成本大大增加。我们建议在上下文集成之前将检索到的文档压缩为文本摘要。这不仅降低了计算成本,而且减轻了LM在长时间检索的文档中识别相关信息的负担。我们提出了两个压缩器——一个是提取压缩器,它从检索到的文档中选择有用的句子;另一个是抽象压缩器,它通过合成多个文档中的信息来生成摘要。当生成的摘要被准备到LM的输入中时,两个压缩器都经过了训练,以提高LM在最终任务中的性能,同时保持摘要的简洁性。如果检索到的文档与输入无关,或者没有向LM提供额外信息,我们的压缩器可以返回一个空字符串,从而实现选择性扩充。我们在语言建模任务和开放域问答任务上评估了我们的方法。我们实现了低至6%的压缩率,同时两项任务的性能损失最小,显著优于现成的摘要模型。我们证明,我们为一个LM训练的压缩器可以在语言建模任务中转移到其他LM,并提供在很大程度上忠实于检索到的文档的摘要。

1 引言

2 问题公式化:RECOMP<

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值