6月27日,腾讯混元对外发布重大开源成果——混合专家(MoE)架构大语言模型Hunyuan-A13B。该模型以800亿总参数规模实现130亿激活参数的高效推理,在保持与同类领先模型相当性能的同时,显著提升推理速度并降低部署成本,为开发者提供了低门槛、高性能的AI开发新选择。目前,该模型已同步登陆Gitcode、Huggingface等主流开源平台,其API服务也已在腾讯云官网正式开放,支持企业与开发者快速集成部署。
作为业内首款13B级别开源混合推理模型,Hunyuan-A13B凭借创新架构设计展现出卓越的综合能力。在多项权威基准测试中,该模型均取得优异成绩,尤其在智能体(Agent)工具调用和长文本处理场景表现突出。针对当前备受关注的Agent能力优化,腾讯混元团队构建了多智能体协同训练框架,整合MCP环境、虚拟沙箱及大模型模拟系统,通过强化学习机制实现智能体在复杂环境中的自主探索与策略进化,有效提升了模型的任务规划与执行能力。在长文本理解方面,Hunyuan-A13B支持256K上下文窗口,能够高效处理百万字级文档,为法律分析、学术研究等场景提供强有力支持。值得关注的是,该模型创新性地引入"双模式推理"机制:用户可通过"think/no_think"指令切换思考模式——"快思考"模式专注高效响应,适用于实时对话等轻量任务;"慢思考"模式则启动深度推理流程,支持复杂逻辑分析与多步骤问题解决,实现效率与精度的动态平衡。
在模型部署友好性方面,Hunyuan-A13B展现出显著优势。通过优化模型结构与推理流程,该模型可在单张中低端GPU上完成部署,大幅降低硬件门槛。同时,模型已全面兼容主流开源推理框架,并支持多种量化格式,在同等输入输出条件下,吞吐量达到前沿开源模型的2倍以上,为大规模商业化应用奠定坚实基础。
Hunyuan-A13B的卓越性能源于腾讯混元在模型研发全流程的技术突破。在预训练阶段,团队构建了覆盖多学科领域的高质量语料库,累计训练数据量达20万亿tokens,为模型通用能力打下坚实基础。更具突破性的是,研发团队通过系统性研究,建立了适用于MoE架构的Scaling Law联合公式,完善了混合专家模型的体系理论,为架构设计提供了量化工程指导,显著提升了预训练效率与模型质量。在后训练优化阶段,采用多阶段渐进式训练策略,在强化推理能力的同时,均衡发展创作生成、语义理解、Agent协作等多元能力,实现模型综合性能的全面提升。
为推动行业技术进步,腾讯混元同步开源两大创新评估数据集,填补关键领域评估空白。其中,ArtifactsBench聚焦代码生成评估的视觉交互短板,构建包含1825个任务的综合基准,覆盖网页开发、数据可视化、交互式游戏等九大领域,按难度分级的测试体系可全面评估模型的实际应用能力;C3-Bench则针对Agent场景三大核心挑战(复杂工具关系规划、隐藏信息处理、动态路径决策),设计1024条精准测试用例,助力发现模型能力边界。
如上图所示,该对比表格清晰呈现了Hunyuan-A13B与OpenAI、Deepseek、Qwen等主流模型在数学推理、科学问答、代码生成、逻辑推理、指令遵循及Agent能力等六大维度的性能得分。Hunyuan-A13B在多数测试项目中以黄色加粗字体标注的最高分,直观展现了其在13B参数级别中的领先地位,为开发者选择适合的模型提供了权威参考依据。
作为腾讯内部应用最广泛的大语言模型之一,Hunyuan-A13B已服务于400余个业务场景,日均调用量突破1.3亿次,积累了丰富的产业实践经验。此次开源是腾讯混元继large模型之后的又一重要举措,标志着其开源战略进入新阶段——以更小参数规模实现性能跃升。据官方透露,腾讯混元将持续扩展开源矩阵,计划推出0.5B至32B参数的稠密模型系列,以及13B激活参数的多尺寸MoE模型,形成覆盖云端到端侧的全场景解决方案。同时,混元体系下图像、视频、3D等多模态基础模型及配套工具链也将持续开源,构建全栈式AI开发生态。
腾讯混元始终秉持开源开放理念,已实现文本、图像、视频、3D等多模态基础模型的全面开源。未来,团队将继续深化多尺寸、多场景模型研发,推动更多核心技术与社区共享,助力大模型技术在千行百业的深度应用,共同促进AI开源生态的繁荣发展。这一系列举措不仅彰显了腾讯在大模型领域的技术实力,更为行业提供了从技术研发到商业落地的完整参考范式,有望加速人工智能技术的普惠化进程。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



