本文是LLM系列文章,针对《QUANTIFYING LANGUAGE MODELS’ SENSITIVITY TO SPURIOUS FEATURES IN PROMPT DESIGN or: How I learned to start worrying about prompt formatting》的翻译。
量化语言模型对提示设计中的突出特征的敏感性:我是如何学会开始担心提示格式的
摘要
由于大型语言模型(LLM)是语言技术的基本组成部分,因此准确地描述其性能至关重要。因为提示设计中的选择会强烈影响模型行为,所以这个设计过程对于有效使用任何现代预训练的生成语言模型都至关重要。在这项工作中,我们重点关注LLM对一类典型的保义设计选择的敏感性:提示格式。我们发现,几种广泛使用的开源LLM对小样本设置中提示格式的细微变化极为敏感,使用LLaMA-2-13B进行评估时,性能差异高达76个准确点。即使在增加模型大小、小样本示例的数量或执行指令调整时,灵敏度仍保持不变。我们的分析表明,使用基于提示的方法评估LLM的工作将受益于跨合理提示格式报告一系列性能,而不是目前在单一格式上报告性能的标准做法。我们还表明,格式性能在模型之间只有微弱的相关性,这使将模型与任意选择的固定提示格式进行比较的方法论有效性受到质疑。为了便于系统分析,我们提出了FORMATSPREAD,这是一种算法,可以快速评估给定任务的一组看似合理的提示格式,并在不访问模型权重的情况下报告预期性能的区间。此外,我