mHumanEval - A Multilingual Benchmark to Evaluate Large Language Models for Code Generation

本文是LLM系列文章,针对《mHumanEval - A Multilingual Benchmark to Evaluate Large Language Models for Code Generation》的翻译。

mHumanEval - 用于评估用于代码生成的大型语言模型的多语言基准测试

摘要

大型语言模型 (LLM) 的最新进展显著增强了从自然语言提示生成代码的能力。由 OpenAI 开发的 HumanEval 基准测试仍然是使用最广泛的代码生成基准测试。然而,这个和其他 Code LLM 基准测试面临着严重的限制,特别是在任务多样性、测试覆盖率和语言范围方面。当前的评估主要集中在测试用例有限的英语到 Python 转换任务上,可能会高估模型性能。虽然最近的工作解决了测试覆盖率和编程语言 (PL) 多样性,但从低资源语言提示生成代码在很大程度上仍未得到探索。为了解决这一差距,我们引入了 mHumanEval,这是一个支持 200 多种自然语言的提示的扩展基准测试。我们采用成熟的机器翻译方法来编译基准测试,并结合质量保证流程。此外,我们还为 15 种不同的自然语言 (NL) 提供专业的人工翻译。最后,我们分析了最先进 (SOTA) 代码 LLM 的多语言代码生成功能,从而提供了对跨语言代码生成的当前前景的见解。

1 引言

2 相关工作

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值