本文是LLM系列文章,针对《A Survey on Language Models for Code》的翻译。
摘要
在这项工作中,我们系统地回顾了语言模型在代码处理方面的最新进展,涵盖了50多个模型、30多个评估任务、150多个数据集和550项相关工作。我们将代码处理模型分解为以GPT家族为代表的通用语言模型和专门针对代码进行预训练的专用模型,通常具有定制的目标。我们讨论了这些模型之间的关系和差异,并强调了代码建模从统计模型和RNN到预训练的Transformers和LLM的历史转变,这与NLP所走的路线完全相同。我们还讨论了代码特定的功能,如AST、CFG和单元测试,以及它们在训练代码语言模型中的应用,并确定了该领域的关键挑战和潜在的未来方向。我们在github存储库上保持调查的开放和更新https://github.com/codefuse-ai/Awesome-Code-LLM。
1 引言
2 背景
3 代码语言模型的评估
4 代码的通用语言模型
5 代码的专用语言模型
6 语言模型的代码特性
7 软件开发的LLMs
8 结论与挑战
在这项工作中,我们系统地回顾了使用预训练的Transformer语言模型进行代码处理的历

本文详述了语言模型在代码处理领域的进展,涵盖多种模型、评估任务和数据集。作者对比了通用和专用代码语言模型,探讨了代码特性在训练中的应用,并指出了当前的挑战,包括全面基准测试、高质量数据获取、代码特性集成、LLM在更多任务中的应用以及新模型架构和训练目标的研究。
订阅专栏 解锁全文
429

被折叠的 条评论
为什么被折叠?



