本文是LLM系列文章,针对《Calibrating the Confidence of Large Language Models by Eliciting Fidelity》的翻译。
摘要
使用RLHF等技术优化的大型语言模型在有用和无害方面取得了良好的一致性。然而,在对齐后,这些语言模型往往表现出过度自信,其中表达的自信并没有与它们的正确率准确校准。本文将语言模型置信度分解为问题的不确定性和语言模型生成的答案的保真度。然后,我们提出了一种即插即用的方法来估计语言模型的置信度。我们的方法通过在四个MCQA数据集上使用6个RLHF LM进行实验,显示出良好的校准性能。此外,我们提出了两个新的指标,IPR和CE,来评估模型的校准,并对真正良好校准的置信度进行了详细的讨论。我们的方法可以作为一个强有力的基线,我们希望这项工作能为模型置信度校准提供一些见解。
1 引言
2 相关工作
3 方法
4 实验
5 分析与讨论
6 结论
本文将语言模型置信度分解为问题的不确定性和语言模型生成的答案的保真度。通过分解,我们提出了一种即插即用的方法来校准语言模型的置信度。通过在4个多项选择题回答基准上使用6个RLHF LM进行实验,我们的方法表现出良好的校准性。此外,我们提出了两种新的度量方法,IPR和CE,用于评估语言模型的校准。最后,我们对真正良好
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



