LLM离策略RL训练终极指南:复旦BAPO方法超越GRPO,从入门到精通,收藏这篇就够了!

强化学习(RL)最近已成为对齐和增强大型语言模型(LLM)的核心范式。然而,将off-policy强化学习应用于LLMs会带来巨大挑战:过时数据的增加会导致优化过程不稳定、梯度爆炸甚至训练崩溃。

针对上述挑战,复旦大学联合上海奇绩智峰智能科技有限公司等提出自适应裁剪的平衡策略优化方法 BAPO。该方法通过动态调整裁剪边界,自适应地重新平衡正负样本的贡献,保持策略熵值稳定,从而强化RL优化过程的鲁棒性。在 AIME 2024 和 AIME 2025 基准测试中,32B 的 BAPO 模型不仅在同规模模型中达到了SOTA性能,还超越了o3-mini 和DeepSeek-R1等领先的闭源模型。

01 方法

为了理解off-policy训练不稳定的原因,研究团队进行了全面的理论与实证分析,揭示了两个关键发现。

  • 优化过程中存在一种不平衡现象:策略更新常被负优势样本主导,产生过度的惩罚信号,这不仅抑制了中性甚至正确的行为,还可能引发梯度爆炸。
  • 使用PPO和GRPO算法推导出熵裁剪规则(Entropy-Clip Rule),该规则表明类PPO目标函数中的裁剪机制会系统性地阻止熵增更新,以牺牲探索为代价使策略倾向于过度利用已有信息。

基于上述分析,该研究的motivations包括:

(1)平衡正负token的贡献度同时防止梯度爆炸;

(2)保持策略熵以维持探索能力并避免训练崩溃。

如图3、算法1所示,**BAPO的核心思想在于其自适应裁剪机制,该机制能够动态调整裁剪上下界 chigh 和 clow,来规范正向信号对策略损失的贡献,并在整个强化学习训练过程中维持熵值平衡。**对于每个batch的更新,目标是找到一组满足以下条件的 chigh 和 clow :

其中, ρ0表示正向信号对策略梯度损失的目标贡献率,BAPO会分别以步长 δ1 和 δ2 逐步增加 chigh 和 clow的取值,直到满足公式条件。

BAPO通过动态调整每一步的裁剪边界,能够增强正向token对策略梯度损失的贡献,同时防止负向token过度主导优化目标。

基于重要性采样权重与token概率关系分析,BAPO 能够纳入更多低概率的正向token,同时过滤掉更多低概率的负向token,这两者都有助于保持策略熵。

通过设定正向token的目标贡献率,BAPO既能防止熵值不受控制的增长,避免正向token过度主导损失函数,又能缓解模型对简单问题过拟合却无法处理复杂任务的"尾部退化"现象。

02 评估

如图1和表1所示,对于SFT模型,GRPO仅能带来有限改进。在BP-Math-32B模型上,GRPO在AIME24和AIME25上的性能提升分别仅为0.2和0.7。

相比之下,BAPO在各种规模的模型上均带来了显著提升:

  • 在BP-Math-32B模型上,BAPO相较SFT在AIME24与AIME25分别提升2.7与1.9。在BP-Math-7B模型上提升幅度更为突出,两项基准分别提升3.9与3.5。
  • 实现32B模型SOTA性能,比肩商业模型:BP-Math-32BBAPO在AIME24和AIME25上分别超越Qwen3-32B达5.7与7.1;超越SkyWork-OR1-32B达4.9与6.7;分别领先DeepSeek-R1达7.3与10.0,同时达到与o3-mini相当的性能。
  • 值得注意的是,即使是较小规模的BP-Math-7BBAPO,也能取得与Gemini-2.0-Flash-Thinking相当的水平,凸显了BAPO方法在面对商业闭源模型时的强大竞争力。

如何学习大模型 AI ?

我国在AI大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着Al技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国Al产业的创新步伐。加强人才培养,优化教育体系,国际合作并进,是破解困局、推动AI发展的关键。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

2025最新大模型学习路线

明确的学习路线至关重要。它能指引新人起点、规划学习顺序、明确核心知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。

对于从来没有接触过AI大模型的同学,我帮大家准备了从零基础到精通学习成长路线图以及学习规划。可以说是最科学最系统的学习路线。

在这里插入图片描述

针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。

大模型经典PDF书籍

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路!

在这里插入图片描述

配套大模型项目实战

所有视频教程所涉及的实战项目和项目源码等
在这里插入图片描述

博主介绍+AI项目案例集锦

MoPaaS专注于Al技术能力建设与应用场景开发,与智学优课联合孵化,培养适合未来发展需求的技术性人才和应用型领袖。

在这里插入图片描述

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

为什么要学习大模型?

2025人工智能大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

在这里插入图片描述

适合人群

  • 在校学生:包括专科、本科、硕士和博士研究生。学生应具备扎实的编程基础和一定的数学基础,有志于深入AGI大模型行业,希望开展相关的研究和开发工作。
  • IT行业从业人员:包括在职或失业者,涵盖开发、测试、运维、产品经理等职务。拥有一定的IT从业经验,至少1年以上的编程工作经验,对大模型技术感兴趣或有业务需求,希望通过课程提升自身在IT领域的竞争力。
  • IT管理及技术研究领域人员:包括技术经理、技术负责人、CTO、架构师、研究员等角色。这些人员需要跟随技术发展趋势,主导技术创新,推动大模型技术在企业业务中的应用与改造。
  • 传统AI从业人员:包括算法工程师、机器视觉工程师、深度学习工程师等。这些AI技术人才原先从事机器视觉、自然语言处理、推荐系统等领域工作,现需要快速补充大模型技术能力,获得大模型训练微调的实操技能,以适应新的技术发展趋势。
    在这里插入图片描述

课程精彩瞬间

大模型核心原理与Prompt:掌握大语言模型的核心知识,了解行业应用与趋势;熟练Python编程,提升提示工程技能,为Al应用开发打下坚实基础。

在这里插入图片描述

RAG应用开发工程:掌握RAG应用开发全流程,理解前沿技术,提升商业化分析与优化能力,通过实战项目加深理解与应用。 在这里插入图片描述

Agent应用架构进阶实践:掌握大模型Agent技术的核心原理与实践应用,能够独立完成Agent系统的设计与开发,提升多智能体协同与复杂任务处理的能力,为AI产品的创新与优化提供有力支持。
在这里插入图片描述

模型微调与私有化大模型:掌握大模型微调与私有化部署技能,提升模型优化与部署能力,为大模型项目落地打下坚实基础。 在这里插入图片描述

顶尖师资,深耕AI大模型前沿技术

实战专家亲授,让你少走弯路
在这里插入图片描述

一对一学习规划,职业生涯指导

  • 真实商业项目实训
  • 大厂绿色直通车

人才库优秀学员参与真实商业项目实训

以商业交付标准作为学习标准,具备真实大模型项目实践操作经验可写入简历,支持项目背调

在这里插入图片描述
大厂绿色直通车,冲击行业高薪岗位
在这里插入图片描述

文中涉及到的完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值