本文是LLM系列文章,针对《Multi-Objective Linguistic Control of Large Language Models》的翻译。
摘要
大型语言模型 (LLM) 尽管在许多具有挑战性的基准测试任务上取得了突破,但倾向于生成冗长的响应,并且缺乏输出复杂性的可控性,而这在实践中通常是人类用户的首选。在本文中,我们研究了如何通过使用现成数据进行微调来精确控制 LLM 输出的多种语言复杂性。为此,我们提出了多控制调优 (MCTune),其中包括真实响应的多个语言复杂度值作为指令调优输入中的控件。我们在 Alpaca-GPT4 和 WizardLM 数据集上微调 LLaMA27B。对广泛使用的基准的评估表明,我们的方法不仅大大提高了 LLM 的多复杂性可控性,而且还保留甚至提高了响应的质量,这是一个附带的好处。
1 引言
2 相关工作
3 微调 LLM 以实现语言可控性
4 语言可控性评价
5 实验
6 讨论和结论
在本文中,我们通过多目标控制调整推进了对 LLM 中语言复杂性的精确控制。我们的