SFT Memorizes, RL Generalizes: A Comparative Study of Foundation Model Post-training

本文是LLM系列问题,针对《SFT Memorizes, RL Generalizes: A Comparative Study of Foundation Model Post-training》的翻译。

SFT记忆,RL概括:基础模型后训练的比较研究

摘要

监督微调(SFT)和强化学习(RL)是基础模型训练后广泛使用的技术。然而,它们在增强模型泛化方面各自的作用尚不清楚。本文研究了SFT和RL在泛化和记忆方面的比较效果,重点研究了基于文本和视觉环境。我们介绍了算术推理纸牌游戏GeneralPoints,并考虑了现实世界的导航环境V-IRL,以评估用SFT和RL训练的模型如何泛化到文本和视觉领域中看不见的变体。我们发现,强化学习,特别是在基于结果的奖励训练中,在基于规则的文本和视觉环境中都具有普遍性。相比之下,SFT倾向于记忆训练数据,并在任何一种情况下都难以进行非分布的泛化。进一步的分析表明,强化学习提高了模型的潜在视觉识别能力,有助于增强其在视觉领域的泛化能力。尽管强化学习具有优越的泛化能力,但我们表明SFT仍然有助于有效的强化学习训练:SFT稳定了模型的输出格式,使后续的强化学习能够实现其性能提升。这些发现证明了强化学习在复杂、多模态任务中获取可概括知识的优势。

1 引言

2 相关工作

3 前言

4 评估任务

5 结果

6 结论、讨论和局限性

本文对基础模型后训练技术,特别是RL和SFT的泛化效果进行了全面分析。通过对GeneralPoints和V-IRL任务的广泛实验,我们证明了强化学习在学习可概括知识方面表现出卓越的性能,而SFT往往只会记住训练数据,无论是规则还是视觉变化。这种现象在多模态算术和

### 三级标题:Post-Training 模型优化技术概述 Post-training 模型优化技术主要集中在提升模型的效率、推理能力和对齐用户需求。这些技术包括但不限于监督微调(Supervised Fine-Tuning)、基于人类反馈的强化学习(Reinforcement Learning with Human Feedback)、自我精炼推理(Self-Refine for Reasoning)以及模型压缩(Model Compression)等[^1]。 #### 监督微调(Supervised Fine-Tuning) 监督微调是通过使用标注数据对预训练模型进行进一步训练,以适应特定任务。这种方法可以显著提高模型在特定任务上的性能,因为它允许模型学习特定于任务的特征和模式[^1]。 #### 基于人类反馈的强化学习(Reinforcement Learning with Human Feedback) 基于人类反馈的强化学习是一种通过人类反馈来指导模型优化过程的技术。这种技术能够帮助模型更好地理解和满足用户的偏好,从而提高模型的用户体验和满意度[^1]。 #### 自我精炼推理(Self-Refine for Reasoning) 自我精炼推理是一种让模型通过自我反思和改进来增强其推理能力的方法。这种方法可以帮助模型在处理复杂问题时更加高效和准确[^1]。 #### 模型压缩(Model Compression) 模型压缩旨在减少模型参数的数量,以提高计算效率。这可以通过多种方式实现,例如剪枝、量化和知识蒸馏等。模型压缩不仅有助于降低计算资源的需求,还可以使模型更适合部署在资源受限的设备上。 #### BRECQ: PUSHING THE LIMIT OF POST-TRAINING QUANTIZATION BY BLOCK RECONSTRUCTION BRECQ 是一种后训练量化方法,它通过块重建来推动后训练量化的极限。该方法基于二阶分析定义了一组重建单元,并证明了块重建是最优选择。此外,BRECQ 还利用 Fisher 信息矩阵在重建过程中为每个前激活分配重要性度量。通过结合遗传算法和明确定义的块内敏感性度量,BRECQ 能够生成延迟和大小保证的混合精度量化神经网络,从而在专用硬件(如 FPGA)和通用硬件(如 ARM CPU)上实现全面改进。实验结果表明,BRECQ 方法适用于大量任务和模型,并且首次展示了后训练量化可以在不显著损失准确性的情况下将权重量化到 INT2 [^2]。 #### TÜLU 3: Pushing Frontiers in Open Language Model Post-Training TÜLU 3 是一个开源语言模型,它基于 Llama 3.1 基模型,结合了监督微调(SFT)、直接偏好优化(DPO)和强化学习与可验证奖励(RLVR)等新技术。通过引入新的数据集、评估框架和训练流程,TÜLU 3 优化了数据混合、方法和参数。实验结果显示,TÜLU 3 在多个基准测试中超越了同类模型,包括 Llama 3.1 Instruct、Qwen 2.5 Instruct 和 Mistral-Instruct 等,并在大型 70B 模型中与闭源模型如 Claude 3.5 Haiku 和 GPT-4o mini 相媲美 [^3]。 ### 代码示例 以下是一个简单的监督微调示例代码: ```python # 示例代码:监督微调 def supervised_fine_tuning(data, model): # 使用标注数据对预训练模型进行进一步训练 model.fit(data) return model ``` ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值