本文是LLM系列文章,针对《Multi-Perspective Consistency Enhances Confidence Estimation in Large Language Models》的翻译。
摘要
在大型语言模型(LLM)的部署中,准确的置信度估计对于评估模型预测的可信度至关重要。然而,现有的方法往往无法克服对错误答案过于自信的问题。在这项工作中,我们专注于改进大型语言模型的置信度估计。考虑到语言模型中自我意识的脆弱性,我们引入了一种多视角一致性(MPC)方法。我们利用模型内(MPC内部)和不同模型间(MPC横向)不同视角的互补见解来缓解单一视角下产生的过度自信问题。在八个公开数据集上的实验结果表明,我们的MPC实现了最先进的性能。进一步的分析表明,MPC可以缓解过度自信的问题,并且可以有效地扩展到其他模型。
本文研究了大型语言模型(LLM)的置信度估计问题,提出多视角一致性(MPC)方法以解决模型对错误答案过度自信的挑战。MPC包括模型内和模型间的视角集成,实验证实在多个数据集上提高了置信度估计的准确性和可靠性。
已下架不支持订阅
9783

被折叠的 条评论
为什么被折叠?



