Can Large Language Models Recall Reference Location Like Humans?

828 篇文章

已下架不支持订阅

本文介绍LLMRefLoc框架,利用大型语言模型独立召回参考文档段落,模仿人类信息检索习惯。实验表明,这种方法在知识敏感任务中有效,并有助于提升下游任务性能。未来研究将增强LLM在约束条件下的召回能力,扩大应用范围。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Can Large Language Models Recall Reference Location Like Humans?》的翻译。

大型语言模型能像人类一样回忆参考位置吗?

摘要

在完成知识密集型任务时,人类有时不仅需要答案,还需要相应的参考短文进行辅助阅读。以前的方法需要通过额外的检索模型来获得预先分割的文章块。本文探讨了利用大型语言模型(LLM)预训练阶段存储的参数化知识,从任何起始位置独立回忆参考段落。我们提出了一个两阶段的框架,模拟人类回忆容易被遗忘的参考文献的场景。最初,LLM会被提示调用文档标题标识符,以获得粗粒度的文档集。然后,基于获取的粗粒度文档集,它调用细粒度的段落。在两阶段调用过程中,我们使用约束解码来确保不会生成存储文档之外的内容。为了提高速度,我们在第二阶段只调用一个短前缀,然后定位其位置以检索完整的段落。在KILT知识敏感任务上的实验验证了LLM可以独立地回忆各种任务形式中的参考通道位置,并且所获得的参考对下游任务有显著的帮助。

1 引言

2 LLMRefLoc

3 实验

4 相关工作

5 结论和未来工作

本文介绍了一个名为LLMRefLo

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值