本文是LLM系列文章,针对《SUPERVISED KNOWLEDGE MAKES LARGE LANGUAGE MODELS BETTER IN-CONTEXT LEARNERS》的翻译。
摘要
大型语言模型(LLM)通过提示工程展示了新兴的上下文学习能力。大规模生成模型的最新进展进一步扩展了它们在现实世界语言应用中的应用。然而,提高LLM在自然语言理解和问答中的可推广性和真实性这一关键挑战仍有待探索。虽然之前的上下文学习研究侧重于增强模型,以遵守用户的特定指令和质量期望,并避免不期望的输出,但很少甚至没有研究在推理阶段使用特定任务的微调语言模型(SLM)来改进LLM的上下文学习。我们的主要贡献是建立了一个简单而有效的框架,提高了LLM的可靠性,因为它:1)概括了分布外的数据,2)阐明了LLM如何从判别模型中受益,3)最大限度地减少了生成任务中的幻觉。使用我们提出的插件方法,Llama 2和ChatGPT的增强版本在可推广性和真实性方面超过了它们的原始版本。我们提供了一套全面的资源,包括16个精心策划的数据集、提示、模型检查点和9个不同任务的LLM输出。我们的实证分析揭示了将判别模型纳入LLM的优势,并强调了我们的方法在培养更可靠的LLM方面的潜力。