本文是LLM系列文章,针对《Large Language Models: A Survey》的翻译。
摘要
自2022年11月ChatGPT发布以来,大型语言模型(LLM)因其在广泛的自然语言任务中的强大性能而备受关注。LLM的通用语言理解和生成能力是通过在大量文本数据上训练数十亿模型的参数来获得的,正如缩放定律所预测的那样。LLM的研究领域虽然很新,但正在以许多不同的方式迅速发展。在本文中,我们回顾了一些最著名的LLM,包括三个流行的LLM家族(GPT、LLaMA、PaLM),并讨论了它们的特点、贡献和局限性。我们还概述了为构建和增强LLM而开发的技术。然后,我们调查了为LLM训练、微调和评估准备的流行数据集,回顾了广泛使用的LLM评估指标,并在一组具有代表性的基准上比较了几种流行LLM的性能。最后,我们通过讨论开放的挑战和未来的研究方向来总结本文。