Just Ask for Calibration

828 篇文章

已下架不支持订阅

本文研究了经过人类反馈强化学习(RLHF)微调的大型语言模型(LMs)的校准问题。发现通过正确的提示策略和温度缩放,RLHF LMs的校准误差可降低50%以上,提高预测的可信度。未来工作将探讨降低模型对提示敏感性、利用校准改善长形式生成和领域依赖性的影响。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Just Ask for Calibration: Strategies for Eliciting Calibrated Confidence Scores from Language Models Fine-Tuned with Human Feedback》的翻译。

Just Ask for Calibration:从人类反馈微调的语言模型中提取校准置信度分数的策略

摘要

一个值得信赖的真实世界预测系统应该得到很好的校准;也就是说,它对答案的信心表明了答案正确的可能性,在低信心预测的情况下,可以推迟到更昂贵的专家那里。虽然最近的研究表明,无监督预训练产生的大型语言模型(LMs)校准得非常好,但实践中最广泛使用的LMs在初始无监督预训练阶段后通过人类反馈强化学习(RLHFLMs)进行了微调,对于这些模型是否保持了其祖先的良好校准性,结果喜忧参半。在本文中,我们对从用RLHF微调的LLM中提取置信度得分的计算上可行的方法进行了广泛的评估。我们发现,在正确的提示策略下,RLHF LMs表达的概率比模型的条件概率校准得更好,能够实现相当好的校准预测。通过将提示策略和温度缩放相结合,我们发现可以将RLHFLMs的预期校准误差降低50%以上。

1 引言

2 评估RLHF-LMs的校准

3 结果

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值