从零实现LLM-RLHF(LLM-RLHF-Tuning)【支持指令微调Alpaca模型;支持训练Reward模型;支持PPO算法训练RL模型】

花了一段时间实现了一个类似InstructGPT的三阶段训练的LLM-RLHF项目,https://github.com/Joyce94/LLM-RLHF-Tuning,这篇文章主要介绍一下LLM-RLHF中阶段3 PPO部分的实现细节。欢迎大家交流讨论。

一、模型

1、模型介绍

PPO部分需要用到4个模型:

sft模型:阶段1训练的有监督微调模型,作为策略模型的基线模型,在整个训练过程中参数固定不变,用于限制策略模型πθRL更新幅度,防止策略模型训练偏差过大
rm模型:阶段2训练的奖励模型,在PPO训练

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值