Dynamic Benchmark Construction for Evaluating Large Language Models on Real-World Codes

在这里插入图片描述

一、文章主要内容

本文聚焦于大型语言模型(LLMs)在真实软件开发场景中代码生成能力的评估问题,针对现有基准测试存在的数据污染、测试严谨性不足、依赖处理缺失等缺陷,提出了动态基准测试构建框架CODE2BENCH,并基于该框架构建了首个动态基准测试集CODE2BENCH-2505。

1. 现有基准测试的核心问题

  • 数据污染风险高:多数静态基准测试集(如HumanEval、MBPP)依赖固定数据集,LLMs在训练过程中可能接触到这些数据,导致评估结果失真;部分动态基准测试(如LiveCodeBench)虽能缓解污染,但未直接从真实软件仓库提取任务,缺乏场景真实性。
  • 测试严谨性不足:多数基准测试采用手动设计或简单生成的测试用例,难以覆盖复杂逻辑和边缘情况,无法有效暴露模型的细微缺陷(如EvalPlus虽增强测试,但仍基于静态手动任务)。
  • 依赖处理与多语言支持缺失:现有基准测试要么未处理代码依赖(如HumanEval-X),要么依赖处理不规范(如RepoBench),且多数仅支持单一语言,无法评估LLMs的跨语言代码生成能力。

2. CODE2BENCH框架核心流程

框架通过“候选筛选”和“基准

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值