An Effective Framework to Help LLMs Handle Numeric-involved Long-context Tasks

本文是LLM系列文章,针对《An Effective Framework to Help LLMs Handle Numeric-involved Long-context Tasks》的翻译。

帮助LLM处理涉及数字的长上下文任务的有效框架

摘要

大型语言模型(LLM)在处理长文本方面表现出了卓越的能力,并且在传统检索任务中具有近乎完美的表现。然而,当涉及长上下文中的数值计算时,它们的性能会显着下降。目前的LLM在正常情况下通常无法解决涉及数字的长上下文任务,因为它们在同时处理复杂和大量信息方面存在固有的局限性。一些CoT之类的提示方法可以提高准确性,但需要大量输出token,成本高且速度慢。为了解决这个问题,我们提出了一种工作流程,将涉及数字的长上下文任务分解为 4 个低级子任务:判断、提取以及用代码和结论进行处理。前两个子任务相对简单,这使得我们可以使用较小的模型来有效地处理长上下文。当需要进行数值计算时,我们使用LLM生成的代码,以避免LLM不擅长计算的缺点。 2 个涉及数字的长上下文基准测试的结果表明,我们的工作流程不仅可以提高准确性,还可以显着降低 API 调用的成本。

1 引言

2 方法

3 实验

4 结论

在这项研究中,我

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值