本文是LLM系列文章,针对《Code Comparison Tuning for Code Large Language Models》的翻译。
摘要
我们提出了代码比较调整(CCT),这是一种简单有效的代码大型语言模型(Code-LLM)调整方法,可以更好地处理细微的代码错误。具体来说,我们将比较的概念集成到指令调优中,无论是在token级别还是在序列级别,使模型能够识别代码中哪怕是最微小的偏差。为了将原始代码与包含手动添加的代码错误的错误版本进行比较,我们使用token级别偏好丢失进行详细的token级别比较。此外,我们将代码段组合在一起,创建了一个新的指令调优示例,用于序列级比较,增强了模型的错误修复能力。HumanEvalFix基准测试的实验结果表明,CCT在pass@1在不同的代码LLM中得分高达4分,广泛的分析证明了我们方法的有效性。

订阅专栏 解锁全文
1290

被折叠的 条评论
为什么被折叠?



