NExT: Teaching Large Language Models to Reason about Code Execution

本文是LLM系列文章,针对《NExT: Teaching Large Language Models to Reason about Code Execution》的翻译。

摘要

人类开发人员的一项基本技能是理解和推理程序执行的能力。例如,程序员可以在脑海中模拟自然语言的代码执行,以调试和修复代码(又名橡皮鸭调试)。但是,代码的大型语言模型 (LLM) 通常在程序的表面文本形式上进行训练,因此可能缺乏对程序在运行时执行方式的语义理解。为了解决这个问题,我们提出了 NExT,这是一种教 LLM 检查程序的执行跟踪(已执行行的可变状态)并通过思维链 (CoT) 基本原理推理其运行时行为的方法。具体来说,NExT 使用自我训练来引导一组具有执行感知原理的综合训练集,这些基本原理会导致正确的任务解决方案(例如,固定程序),而无需费力的手动注释。基于 Mbpp和 HumanEval的程序修复任务实验表明,NExT 将 PaLM 2 模型的修复率分别提高了 26.1% 和 14.3% 绝对值,通过自动指标和人工评分者验证,基本原理质量显著提高。我们的模型还可以推广到测试时没有程序跟踪的场景。

1 引言

2 任务:使用跟踪进行程序修复

3 初步研究:LLM 可以使用自然语言中的程序跟踪进行推理吗?

4 NExT:归化执行调优

5 实验

6 相关工作

由于没有提供具体的参考引用内容,以下是基于一般知识对“RLEF: Grounding Code LLMs in Execution Feedback with Reinforcement Learning”的介绍: “RLEF: Grounding Code LLMs in Execution Feedback with Reinforcement Learning” 可能是一项关于将大语言模型(LLMs)应用于代码生成,并结合强化学习(Reinforcement Learning)利用执行反馈进行优化的研究。 在代码生成领域,大语言模型虽然能够生成代码,但生成的代码质量参差不齐,可能存在语法错误、逻辑错误或者效率低下等问题。而RLEF这种方法,通过引入执行反馈机制,让模型在生成代码后,对代码进行执行,根据执行的结果(如代码是否能正常运行、是否能正确输出预期结果等)作为反馈信号,再利用强化学习算法来调整模型的参数,使得模型在后续的代码生成中能够生成质量更高、更符合实际需求的代码。 强化学习在这个过程中起到关键作用,它可以根据执行反馈给予模型相应的奖励或者惩罚,引导模型朝着生成更优代码的方向进行学习和改进。 ```python # 以下是一个简单的示例,展示强化学习中奖励机制的概念 # 假设我们有一个简单的代码生成任务,判断生成的代码是否能正确实现一个加法功能 def generate_code(): # 模拟代码生成,这里简单返回一个加法代码 return "def add(a, b): return a + b" def execute_code(code): try: # 执行代码 exec(code) result = eval("add(2, 3)") if result == 5: return 1 # 代码执行正确,给予奖励 else: return -1 # 代码执行结果错误,给予惩罚 except: return -1 # 代码执行出错,给予惩罚 # 模拟强化学习中的奖励更新 reward = execute_code(generate_code()) print(f"执行反馈奖励: {reward}") ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值