From Data-Centric to Sample-Centric: Enhancing LLM Reasoning via Progressive Optimization

样本中心框架LPPO提升大语言模型推理能力

文章主要内容总结

本文聚焦于大语言模型(LLMs)的推理能力提升,提出从“数据中心”向“样本中心”转变的优化思路,设计了名为LPPO(Learning-Progress and Prefix-guided Optimization)的渐进式优化框架。该框架通过两种核心策略增强带可验证奖励的强化学习(RLVR)效果:

  1. 前缀引导采样(Prefix-Guided Sampling, PG-Sampling):针对模型难以解决的“挑战性样本”,利用专家演示的部分解前缀作为提示,引导模型完成剩余推理,平衡探索与学习效率;
  2. 学习进度加权(Learning-Progress Weighting, LP-Weighting):通过指数移动平均(EMA)跟踪每个样本的通过率变化,动态调整样本在训练中的权重——强调模型正在进步的样本,弱化学习停滞或退化的样本,提升资源分配效率。

实验表明,LPPO在多个数学推理基准(如AIME、MATH-500等)上优于现有RLVR基线方法,收敛速度更快,性能上限更高,且在不同模型规模、架构和优化器上具有稳健性。

创新点

  1. 样本中心视角:突破传统“数据中心”对数据量的依赖,转而聚焦单个样本的动态利用,最大化有限高质量数据的学习价值;
  2. 前缀引导采样:在线生成部分专家解前缀作为提示,既保留强化学习的探索优势,又为难题提供有效指导,避免纯监督微调的局限性;
  3. 动态学习进
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值