本文是LLM系列文章,针对《Examining Forgetting in Continual Pre-training of Aligned Large
Language Models》的翻译。
摘要
大型语言模型(LLM)的最新进展在各种任务中表现出了非凡的熟练度。鉴于LLM在许多领域的强大应用,LLM的发展激增。在开发LLM时,一种常见的做法是对先前微调的模型进行持续的预训练。然而,这可能导致灾难性的遗忘。在我们的工作中,我们研究了在对现有微调LLM进行持续预训练时发生的遗忘现象。我们评估了连续预训练对微调LLM的影响,包括输出格式、知识和可靠性。实验结果强调了在持续的预训练中解决灾难性遗忘的挑战,尤其是重复问题。
1 引言
2 持续预训练中灾难性遗忘的观察
3 直接的方法
4 实验
5 结论
这项工作表明,在持续的预训练中,灾难性遗忘是一个不小的挑战,无法通过简单的方法解决。此外,我们发现,当模型在持续的预训练后倾向于产生繁体中文输出时,重复问题变得更加明显。此外,经过持续的预训练,模型的知识主要不受影响;然而&#x