腾讯混元开源新突破:13B激活参数MoE模型性能对标OpenAI o1,单GPU即可部署

腾讯混元开源新突破:13B激活参数MoE模型性能对标OpenAI o1,单GPU即可部署

【免费下载链接】Hunyuan-A13B-Pretrain 腾讯开源Hunyuan-A13B大语言模型,采用细粒度MoE架构,800亿总参数仅激活130亿,高效平衡性能与资源消耗。支持256K超长上下文、混合推理模式及多量化格式,在数学推理、代码生成等多任务表现卓越,尤其适合资源受限环境的研究与开发 【免费下载链接】Hunyuan-A13B-Pretrain 项目地址: https://ai.gitcode.com/tencent_hunyuan/Hunyuan-A13B-Pretrain

智东西6月27日消息,腾讯混元今日正式对外发布并开源其首个混合推理MoE架构大语言模型Hunyuan-A13B。该模型总参数规模达80B,而激活参数仅需13B,是腾讯混元系列首次推出的推理专用开源模型,被官方定义为"业界首款13B级别MoE混合推理开源模型"。作为腾讯内部应用覆盖最广的大语言模型之一,Hunyuan-A13B已支撑超过400项业务的精调与调用需求,每日处理请求量突破1.3亿次。相较于此前开源的混元Large版本,新模型在保持参数规模缩减的同时,实现了性能的显著提升。

在官方公布的评测数据中,Hunyuan-A13B在数学推理、逻辑演绎及智能体调用等核心能力上,全面超越Qwen3-A22B、DeepSeek-R1-0120等主流模型,甚至比肩OpenAI o1-1217。特别在长文本处理领域,该模型展现出与Gemini 2.5 Pro接近的性能水平。针对用户差异化需求,模型设计了"快思考"与"慢思考"双模式切换功能——前者提供极速响应的简洁输出,适用于低延迟场景;后者则默认启用深度推理机制,支持反思回溯等复杂思维链生成。

开发者友好性方面,Hunyuan-A13B实现了突破性优化,在特定条件下仅需单张中低端GPU即可完成部署。目前该模型已全面兼容主流开源推理框架,支持多种量化格式的无损转换,在同等输入输出规模下,吞吐量达到前沿开源模型的2倍以上。即日起,Hunyuan-A13B已同步登陆Gitcode和Hugging Face等开源社区,其API服务也正式在腾讯云官网上线,支持开发者快速集成部署。

体验入口:https://hunyuan.tencent.com/ API地址:https://cloud.tencent.com/product/tclm Gitcode:https://gitcode.com/tencent_hunyuan/Hunyuan-A13B-Pretrain HuggingFace:https://huggingface.co/tencent

一、13B激活参数实现性能跨越,多维度评测超越主流模型

第三方测试结果显示,Hunyuan-A13B在数学运算、逻辑推理及智能体协同等关键能力维度表现突出,在多个权威基准测试中均取得领先成绩。该模型不仅在GSM8K、MATH等数学评测集上刷新纪录,更在HumanEval代码生成、WebQA知识问答等综合性榜单中,持续超越Qwen3-A22B、DeepSeek-R1-0120等竞品,部分指标已达到OpenAI o1-1217的水平。

腾讯混元Github页面,红色框标注的“Hunyuan-A13B”项目是基于细粒度MoE架构的开源大语言模型,页面显示了项目的编程语言、星标和分叉数等信息。 如上图所示,Gitcode页面清晰展示了Hunyuan-A13B的项目架构与社区热度。这一开源举措标志着腾讯混元在推动大模型技术普惠化方面的重要进展,为开发者提供了高性能且低门槛的本地化部署方案。

长文本处理能力上,Hunyuan-A13B搭载256K原生上下文窗口,在PenguinScrolls(书籍级长文本理解)和LongBench-v2(多领域长文档任务)评测中,其表现仅次于Gemini 2.5 Pro,显著领先于DeepSeek R1和Qwen3-A22B等同类产品。这种超长上下文理解能力,使其在法律文书分析、学术论文解读等专业场景具备独特优势。

二、20T tokens预训练+创新MoE架构:揭秘性能跃升的技术密码

Hunyuan-A13B的卓越性能源于腾讯混元团队在数据训练与架构设计上的双重突破。预训练阶段,模型累计学习20T tokens的高质量语料,覆盖科技文献、代码库、多语言文本等多元领域。技术团队创新性地提出适用于MoE架构的Scaling Law联合公式,通过动态调整专家层分配策略,使模型在相同计算资源下实现更高的学习效率。

在后训练优化阶段,研发团队采用四阶段递进式训练方案,系统性提升模型的创作生成、语义理解与智能体协作能力。针对当前大模型发展的核心方向,腾讯混元构建了多智能体数据合成框架,整合MCP复杂环境模拟、沙箱测试及多模型协同训练系统,通过强化学习机制让智能体在动态场景中自主探索最优解,显著提升了模型的环境交互能力。

腾讯混元Hunyuan-A13B大模型的“快思考”与“慢思考”模式界面,上半部分为简洁高效的快思考模式解答数学问题,下半部分为详细深度的慢思考模式解答过程(标注“已深度思考(用时122秒)”)。 图中直观呈现了Hunyuan-A13B的双模式推理界面差异。快思考模式6秒完成数学题解答,慢思考模式则通过122秒的深度推理生成完整解题步骤,这种灵活切换机制完美适配了不同场景的需求,体现了模型设计的人性化考量。

为推动行业技术进步,腾讯混元同步开源两大专业评测数据集。其中ArtifactsBench包含1825个细分任务,覆盖网页开发、数据可视化、交互式游戏等九大应用领域,并按难度梯度分级,可全面评估模型的专业能力边界;C3-Bench则聚焦智能体场景的三大核心挑战——复杂工具规划、隐藏信息处理及动态路径决策,通过1024条精心设计的测试案例,帮助开发者精准定位模型优化方向。

【免费下载链接】Hunyuan-A13B-Pretrain 腾讯开源Hunyuan-A13B大语言模型,采用细粒度MoE架构,800亿总参数仅激活130亿,高效平衡性能与资源消耗。支持256K超长上下文、混合推理模式及多量化格式,在数学推理、代码生成等多任务表现卓越,尤其适合资源受限环境的研究与开发 【免费下载链接】Hunyuan-A13B-Pretrain 项目地址: https://ai.gitcode.com/tencent_hunyuan/Hunyuan-A13B-Pretrain

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值