1. 文章简介
这篇文章是Google在今年9月发表的一篇文章,顾名思义,其核心的idea就是将RLHF当中的human部分直接替换为AI,直接用LLM的Feedback来finetune模型,考察其得到的模型效果。
结论而言其得到的模型效果有了不输RLHF后的模型效果,证明了上述策略的可行性。
怎么说呢,这个结论多少有些情理之中又有些意料之外……
情理之中是在于说已经有多个实验证明了LLM在标注任务上的效果不弱于人类,甚至比人类有着更稳定的标注效果,因此用LLM来替代人类的标注有其一定的道理。
另一方面,意料之外则是因为LLM毕竟还是模型,用模型自己来finetune模型总觉得会引入bias,在其本身的训练feature没有获得增加的情况下,对于模型效果的最终提升来说总觉得有些不可靠……
不过,anyway,还是让我们言归正传,来看看文中到底是做了怎么样的实验以及得出了怎么样的结论吧。
2. 方法介绍
1. 整体方法说明
首先,我们给出RLHF与RLAIF的完整pipeline示意图如下:

可以看到,整体来说,RLHF和RLAIF唯一的区别就是将RM模型所需的标注从人工换成了另一个LLM的自动标注结果。
下面,我们来看一下其中具体的细节实现。
对于一个标准的RLHF过程,可以拆解为以下三部分的内容:
-
Supervised finetuned Model (SFT)
-
RM model
使用人工标注结果训练一个二分类模型:
L = − E ( x , y w , y l ) ∼ D [ l o g σ ( r ϕ ( x , y w ) − r ϕ ( x , y l ) ) ] L = -\mathop{E}\limits_{(x, y_w, y_l) \sim D} [\mathop{log}\sigma(r_{\phi}(x, y_w) - r_{\phi}(x, y_l))] L=−(x,y

本文解读Google发表的文章,探讨将RLHF中人工标注替换为LLM自动标注得到的RLAIF。实验表明,RLAIF效果不输RLHF,且能更快速达到较好水平,但提升有瓶颈。还考察了Prompt、Self - Consistency等因素对模型效果的影响。
最低0.47元/天 解锁文章
645

被折叠的 条评论
为什么被折叠?



