TRACE: A COMPREHENSIVE BENCHMARK FOR CONTINUAL LEARNING IN LARGE LANGUAGE MODELS

828 篇文章

已下架不支持订阅

本文介绍TRACE,一个针对大型语言模型(LLM)的持续学习综合基准,由8个涵盖多领域任务的数据集组成,揭示了LLM在持续学习中的能力退化问题。提出推理增强持续学习(RCL)方法,通过结合任务特定线索和元理性,减少灾难性遗忘并加速新任务收敛。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《TRACE: A COMPREHENSIVE BENCHMARK FOR CONTINUAL LEARNING IN LARGE LANGUAGE MODELS》的翻译。

摘要

对齐的大型语言模型(LLM)在解决任务、遵循说明和确保安全方面表现出非凡的能力。然而,这些一致LLM的持续学习方面在很大程度上被忽视了。现有的持续学习基准对领导一致的LLM缺乏足够的挑战,因为它们的简单性和模型在指令调整过程中的潜在暴露性。在本文中,我们介绍了TRACE,这是一种新的基准测试,旨在评估LLM中的持续学习。TRACE由8个不同的数据集组成,涵盖了具有挑战性的任务,包括特定领域的任务、多语言功能、代码生成和数学推理。所有数据集都被标准化为统一的格式,可以轻松地自动评估LLM。我们的实验表明,经过TRACE训练后,对齐的LLM在一般能力和指令跟随能力方面都表现出显著下降。例如,在我们的数据集上训练后,llama2 chat 13B在gsm8k数据集上的准确率从28.8%急剧下降到2%。这突出了在保持LLM的原始能力的同时,在实现特定任务的性能之间找到合适的折衷方案的挑战。经验发现表明,天生具备推理路径的任务有助于保持LLM的某些能力,以抵御潜在的衰退。基于此,我们引入了推理增强持续学习(RCL)方法。RCL将任务特定线索与元理性相结合,有效地减少了LLM

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值