DeepEP 是由 DeepSeek 团队于 2025 年 1 月 15 日正式开源的。该库以 Apache 2.0 许可证发布,代码完全开放,是全球首个专注于优化 MoE(Mixture-of-Experts)模型分布式通信的高性能库。
🔍 开源详情概览:
项目 详情
开源日期 2025 年 1 月 15 日
开源平台 GitHub
开源模式 完全开放源代码(Apache 2.0 许可)
首次公开版本 DeepEP v0.1.0
🚀 开源后进展:
· 2025 年 3 月:推出 v0.4.0,新增对 FP8 低精度计算支持和 Hopper 架构(H100/NVIDIA H800)优化;
· 2025 年 5 月:发布 v0.8.0,大幅提升 推理端到端效率、RDMA 通信性能,开始支持 多节点大规模集群训练;
· 当前最新版本(2025年6月):DeepEP v0.9.1,提供更多文档、教程及配套工具链。
⭐ 社区反响亮眼:
· 开源首日 Star 数突破 6000
· 被广泛评价为 2025 年全球增长最快的大模型基础设施开源项目之一
👉 已在阿里巴巴、商汤、智谱等多个科技公司部署使用中
💎 为什么值得关注?
DeepEP 在 国产AI框架生态发展 中扮演关键角色,通过突破:
· MoE 通信瓶颈(尤其在分布式场景)
· 打破A100计算卡封锁限制的软件层优化方案
赋能国产算力与大模型训练自主可控 🚀