本文是LLM系列文章,针对《Gotcha! Don’t trick me with unanswerable questions! Self-aligning Large Language Models for Responding to Unknown Questions》的翻译。
摘要
尽管大型语言模型(LLM)具有非凡的回答问题的能力,但即使问题没有明确的答案,它们也经常表现出相当程度的过度自信。为了避免对这些未知问题提供幻觉般的答案,现有的研究通常会调查拒绝回答这些问题的方法。在这项工作中,我们提出了一种新的、可扩展的自对准方法,利用LLM本身来增强其对不同类型未知问题的响应能力,不仅能够拒绝回答,而且能够解释未知问题的不可回答性。具体来说,SelfAlign方法首先采用两阶段的类感知自增强方法来生成大量未知的问题-答案数据。然后,我们进行视差驱动的自管理,以选择合格的数据来微调LLM本身,从而根据需要调整对未知问题的响应。在四种类型的未知问题的两个数据集上的实验结果验证了自对准方法在三种类型的任务公式方面优于现有基线。
1 引言
2 相关工作
3 方法
4 实验设置
5 实验结果
6 结论
在这项工作中,我们探讨了用开放式答案回答未知问题的挑战,而不是简单地拒绝回答。我们引入了一种新颖且可扩展的方法,称为“自对齐”,旨在增