HELPSTEER2-PREFERENCE: COMPLEMENTING RATINGS WITH PREFERENCES

在这里插入图片描述

本文是LLM系列文章,针对《HELPSTEER2-PREFERENCE: COMPLEMENTING RATINGS WITH PREFERENCES》的翻译。

HELPSTEER2-PREFERENCE:用偏好补充评级

摘要

奖励模型对于使模型符合说明至关重要,通常按照两种流行的范式之一进行训练:Bradley Terry风格或回归风格。然而,缺乏证据表明,当数据充分匹配时,这两种方法都比另一种方法好。这主要是因为这些方法需要以不同(但不兼容)的格式收集数据,这意味着现有的公共数据集中没有足够匹配的数据。为了解决这个问题,我们发布了偏好注释(专为Bradley Terry训练设计),以补充HelpSteer2数据集中的现有评级(专为回归风格训练设计)。为了提高数据的可解释性,偏好注释伴随着人工编写的理由。使用这些数据,当数据充分匹配时,我们对Bradley Terry和回归模型进行了第一次面对面比较。基于这种比较得出的见解,我们提出了一种将Bradley Terry和回归奖励建模相结合的新方法。采用这种方法调整的Llama-3.1-70B-Instruct模型在RewardBench上的得分为94.1,截至2024年10月1日࿰

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值