登顶全球双榜!百度ERNIE-4.5深度思考模型领跑AI技术新赛道

登顶全球双榜!百度ERNIE-4.5深度思考模型领跑AI技术新赛道

【免费下载链接】ERNIE-4.5-21B-A3B-Thinking 【免费下载链接】ERNIE-4.5-21B-A3B-Thinking 项目地址: https://ai.gitcode.com/hf_mirrors/baidu/ERNIE-4.5-21B-A3B-Thinking

2025年9月12日,全球人工智能领域传来重磅消息:百度最新发布的文心思考模型ERNIE-4.5-21B-A3B-Thinking在HuggingFace平台的全球模型总趋势榜与文本模型趋势榜中双双斩获冠军,标志着中国自研大模型在国际竞争中实现关键突破。

作为ERNIE-4.5系列的深度优化版本,该模型采用创新的混合专家(MoE)架构,总参数规模达210亿,通过动态路由机制实现每个token仅激活30亿参数的高效推理。依托128K超长上下文窗口设计,该模型可流畅处理百万字级文档分析、多轮复杂对话等场景,在逻辑推理、数学证明、科学实验设计、代码开发等专业领域性能提升显著,同时具备精准的工具调用能力,支持自动化任务链构建。

HuggingFace平台模型列表界面截图,其中百度研发的ERNIE-4.5-21B-A3B-Thinking模型被红色框标注,该模型属于文本生成类,在模型列表中展示其下载量、关注度等信息。 如上图所示,HuggingFace平台实时数据显示百度ERNIE-4.5-21B-A3B-Thinking模型已跃居文本生成类别榜首,红色标注区域清晰展示其领先的下载量与社区关注度。这一排名直观反映了国际市场对中国自研大模型的高度认可,为开发者选择轻量化高性能模型提供了权威参考。

令人瞩目的是,这款轻量化模型在保持210亿总参数规模的同时,通过指令微调与强化学习技术,实现了接近行业顶级大模型的智能水平。公开评测数据显示,其在MMLU、HumanEval等权威榜单中表现优异,成为首个以30亿激活参数达到SOTA水平的国产大模型,有效解决了"参数规模与部署成本"的行业难题。

HuggingFace平台模型列表页面,高亮显示百度ERNIE-4.5-21B-A3B-Thinking模型,分类为文本生成模型,展示其参数规模、下载量等信息。 该图片高亮展示了模型的核心参数信息,包括21B总参数/3B激活参数的创新配置与文本生成的核心功能定位。这种架构设计印证了百度在模型效率优化上的技术突破,为企业级用户提供了兼顾性能与成本的AI解决方案。

此次登顶的背后,是百度全栈自主可控技术体系的集中体现。与全球多数依赖PyTorch框架的顶尖模型不同,文心大模型系列完全基于百度自研的飞桨深度学习框架构建,形成从底层框架到模型应用的完整技术闭环。这种技术自主性不仅保障了核心算法安全,更实现了模型迭代速度与部署效率的双重优势,目前全球仅谷歌与百度具备此级别的全栈研发能力。

值得关注的是,百度在AI领域的技术深耕已形成梯队式发展格局。在2025 WAVE SUMMIT深度学习开发者大会上,百度刚发布文心大模型X1.1版本,重点强化事实性知识检索、多模态指令遵循与智能体自主决策能力。此次ERNIE-4.5-21B-A3B-Thinking的突出表现,进一步完善了百度从通用大模型到专项优化模型的产品矩阵,为不同场景的AI应用提供了更精准的技术选型。

随着人工智能进入"深度思考"时代,ERNIE-4.5系列模型的持续进化不仅推动着技术边界的拓展,更通过开源生态建设加速AI技术的普惠落地。开发者可通过GitCode平台获取完整模型资源(仓库地址:https://gitcode.com/hf_mirrors/baidu/ERNIE-4.5-21B-A3B-Thinking),快速部署轻量化高性能的AI解决方案。这种开放创新模式,正助力中国AI技术从"跟跑"向"领跑"转变,为全球人工智能发展贡献中国智慧。

【免费下载链接】ERNIE-4.5-21B-A3B-Thinking 【免费下载链接】ERNIE-4.5-21B-A3B-Thinking 项目地址: https://ai.gitcode.com/hf_mirrors/baidu/ERNIE-4.5-21B-A3B-Thinking

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值