本文是LLM系列文章,针对《ELAD: Explanation-Guided Large Language Models Active Distillation》的翻译。
摘要
大型语言模型(LLM)的部署和应用受到其内存效率低、计算需求和API推理成本高的阻碍。传统的蒸馏方法将LLM的能力转移到较小的模型中,往往无法确定知识是否已经充分转移,这可能导致高成本或蒸馏不完全。在本文中,我们提出了一种解释引导的LLMs主动蒸馏(ELAD)框架,该框架采用主动学习策略来优化注释成本和模型性能之间的平衡。为了提高有效的样本选择,我们引入了一种解释引导的样本选择方法,该方法通过利用解释步骤中的不确定性来识别挑战其推理的样本。此外,我们提出了一种定制的LLM注释解释修订技术,其中教师模型检测并纠正学生模型推理中的缺陷。我们在各种推理数据集上的实验表明,我们的框架显著提高了LLM知识蒸馏的效率。
1 引言
2 相关工作
3 前言研究
4 问题设置
5 方法
6 实验
7 结论
本文介绍了解释引导L