开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

来源 | 量子位

编程Agent王座,国产开源模型拿下了!

就在刚刚,阿里通义大模型团队开源Qwen3-Coder,直接刷新AI编程SOTA——

不仅在开源界超过DeepSeek V3和Kimi K2,连业界标杆、闭源的Claude Sonnet 4都比下去了。

图片

网友当即实测了一把小球弹跳,效果是酱婶的:

图片

效果之强,甚至引来惊呼:简直改变游戏规则。

图片

毕竟,这可是开源免费的!

现在大家不用再每月花200刀买Claude Code了!

图片

Qwen3-Coder包括多个尺寸,其中最强版本Qwen3-Coder-480B-A35B-Instruct是450B的MoE模型,激活参数为35B

原生支持256K上下文,还可以通过YaRN扩展到1M长度。

图片

命令行版Qwen也同步登场:

通义团队基于Gemini Code,进行了prompt和工具调用协议适配,二次开发并开源命令行工具Qwen Code

嗯,这年头每个CLI都不好意思说自己是编程Agent了(doge)。

简单prompt直出酷炫效果

Qwen3-Coder具体表现如何,还是直接眼见为实。

基本上是,使用简单的语言就能得到惊喜的体验:

比如一句话实现用p5js创建多彩的可交互动画。

图片

3D地球可视化,分分钟得到一个电子地球仪。

图片

还能做出动态的天气卡片。

图片

可交互的小游戏也能轻松拿捏。

图片

我们也简单实测了一波,先来个最实用的功能——做简历。

提示词是:生成一个可编辑的简历模板。

图片

写个扫雷游戏更是轻轻松松,即写即玩~

提示词:生成一个扫雷游戏。

图片

效果之外,值得关注的是,这一次通义团队同样公布了从预训练到后训练的不少技术细节。

技术细节

预训练阶段,Qwen3-Coder主要还是从不同角度进行Scaling,以提升模型能力。

包括数据扩展、上下文扩展、合成数据扩展

其训练数据的规模达到7.5Ttokens,其中70%为代码数据,在保证通用与数学能力的同时提高了编程能力。

同时,原生支持256K上下文长度,借助YaRN技术可以扩展至1M,适配仓库级和动态数据处理。

在训练中还利用Qwen2.5-Coder对低质量数据进行了清洗与重写,显著提升了整体数据的质量。

与当前热衷于竞赛类编程的模型不同,Qwen团队认为代码任务天然适合执行驱动的大规模强化学习。

因此在后训练阶段,他们一方面通过Scaling Code RL在丰富、真实的代码任务上扩展训练,自动生成多样化测试用例,提高了代码执行的成功率。

图片

另一方面,引入了Scaling Long-Horizon RL,依托阿里云基础设施构建可以同时运行20000个独立环境的系统,让模型在多轮交互中表现优异,尤其是在SWE-bench Verified上实现了开源模型SOTA的效果。

图片

开源 vs 闭源

看到这里,你是不是也摩拳擦掌想要一试Qwen3-Coder的真实实力了?

帮大家指个路:

  • 最简单的,可以直接在Qwen官网体验;

  • 命令行安装Qwen Code,支持OpenAI SDK调用LLM;

  • 在阿里云百炼平台申请API,Claude Code、Cline等编程工具都能搭配起来用。

值得一提的是,Qwen3-Coder依然遵循的是Apache License Version 2.0,商用友好。

反正开源嘛,主动权已经交到了各位开发者手里~

而这也是Qwen此番发布,引得网友刷屏转发的关键所在:

Qwen3-Coder看起来是开源编程Agent的一次重大飞越。

图片

现在是比肩,超越还会远吗?

图片

而更令人兴奋的是,在开源这条路上,中国模型们当之无愧地正走在最前列。

官网:
https://chat.qwen.ai/
项目地址:
https://github.com/QwenLM/qwen-code
参考链接:
https://mp.weixin.qq.com/s/CArpTOknOQC5O90Wgih3SA

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值