LOBASS: GAUGING LEARNABILITY IN SUPERVISED FINE-TUNING DATA

828 篇文章

已下架不支持订阅

本文提出了一种新的SFT数据选择维度——可学习性,通过损失为基础的SFT数据选择(LoBaSS)方法,提高了微调效率。在少量数据下,LoBaSS能实现与全数据微调相当甚至超越的效果,证明了其有效性和适应性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《LOBASS: GAUGING LEARNABILITY IN SUPERVISED FINE-TUNING DATA》的翻译。

LOBASS:测量监督微调数据的可学习性

摘要

监督微调(SFT)是将大型语言模型(LLM)与特定任务先决条件相结合的关键阶段。微调数据的选择深刻影响了模型的性能,其原理传统上基于数据质量和分布。在本文中,我们在SFT数据选择中引入了一个新的维度:可学习性。这个新维度的动机是直觉,即SFT解锁了LLM在预训练阶段获得的能力。考虑到不同的预训练模型具有不同的能力,适合一个模型的SFT数据可能不适合另一个模型。因此,我们引入了术语“可学习性”来定义数据对模型有效学习的适用性。我们提出了基于损失的SFT数据选择(LoBaSS)方法,利用数据可学习性作为选择SFT数据的主要标准。这种方法提供了一种细致入微的方法,允许将数据选择与固有的模型功能相结合,确保最佳兼容性和学习效率。在涉及7B和13B模型的实验比较中,我们的LoBaSS方法能够在800个数据点(1.5%)的情况下获得可比较的结果,并且仅在总训练数据的6%时就超过了全数据微调。当使用16.7%的数据时,LoBaSS协调了该模型在会话和数学领域的能力,证明了其有效性和适应性。

1 引言

2 相关工作<

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值