MiniMax发布的大模型M2采用混合专家架构,总参数2300亿但推理仅激活100亿,实现性能与成本最佳平衡。M2具备编程、工具使用和深度搜索三大关键能力,在权威基准测试中排名全球前五,价格仅为Claude Sonnet的8%,速度近两倍。模型已在Hugging Face开源,提供多种部署方式,为开发者和企业提供了高性能、低成本的AI解决方案,特别适用于Agent和代码生成任务。
中国AI独角兽之一,MiniMax发布了专为智能体和代码任务设计的模型M2,刷新开源SOTA。

价格仅有Claude Sonnet的8%,速度超越近两倍。
MiniMax最知名的就是它们家的海螺AI,时不时就刷新视频生成、语音生成新高度。存在感爆棚。
成立三年,MiniMax迅速发展,完成了多轮融资,在2023年6月就获得了超过2.5亿美元的投资。
在M2之前,MiniMax已经推出了MiniMax-M1系列模型。
MiniMax-M1上线表现优异,超越了DeepSeek-R1和Qwen3-235B等其他强大的开放权重模型。
这些前期工作为M2的开发奠定了坚实的技术基础。
MiniMax的发展战略始终围绕普惠智能这一核心理念。
这种理念引导着MiniMax在模型设计上的选择,也决定了M2的产品定位。
1.模型只为解决真实世界的问题
随着AI技术的发展,简单的问答式对话助手正在向能够独立完成复杂任务的Agent演进。
MiniMax在实践中发现,现有的AI模型难以完全满足Agent的需求,主要挑战在于性能、价格和推理速度之间的平衡——这几乎是一个不可能三角。
海外顶级模型虽然性能优秀,但价格昂贵且相对较慢。
国内模型价格较低,但在性能和速度上存在差距。
这种状况导致现有的Agent产品往往价格高昂或速度缓慢。例如,许多Agent订阅服务每月需要数十甚至数百美元,完成单个任务常常需要数小时。
Mini-Max团队在公司快速发展的过程中,构建了多种Agent来应对挑战。
这些Agent开始完成越来越复杂的任务,从分析在线数据、研究技术问题,到日常编程、处理用户反馈,甚至筛选人力资源简历。
它们与团队一起工作,推动公司发展,构建了一个从开发AGI到与AGI共同进化的AI原生组织。
MiniMax M2采用了混合专家(MoE)架构,总参数量达到2300亿,但每次推理只激活约100亿参数。
这种设计使得模型在保持强大性能的同时,大幅降低了计算成本和推理延迟。通过激活参数的高效设计,MiniMax实现了智能、速度和成本的最佳平衡。
M2的核心设计理念是为了满足人们的需求,团队要求首先能够自己使用它。
为此,MiniMax的开发者,包括业务和后端团队的成员,与算法工程师一起,投入了大量精力构建环境和评估体系,并越来越多地将其集成到日常工作中。
在掌握这些复杂场景后,MiniMax发现将积累的方法迁移到传统大模型任务(如知识和数学)上,可以自然地获得优异结果。
M2具备三个对Agent至关重要的关键能力:编程、工具使用和深度搜索。

在工具使用和深度搜索方面的能力非常接近海外顶级模型,在编程方面虽然略逊于顶级海外模型,但已经在中国市场处于领先地位。
在编程能力方面,M2专为端到端开发工作流而构建,在Claude Code、Cursor、Cline、Kilo Code和Droid等各种应用中表现出色。
在Agent性能方面,M2展示了出色的规划和稳定执行复杂长链工具调用任务的能力,能够协调调用Shell、浏览器、Python代码解释器和各种MCP工具。
2.M2在性能和成本上找到了平衡点
MiniMax M2在多个权威基准测试中表现优异。
根据Artificial Analysis的基准测试,该模型集成了10个测试任务,M2在全球排名前五。

在编程和Agent相关的基准测试中,M2刷新了开源模型SOTA。

MiniMax M2在定价策略上具有显著优势。
模型API价格设定为每百万输入令牌0.30美元,每百万输出令牌1.20美元。
这一价格是Claude 3.5 Sonnet的8%,同时提供近两倍的推理速度。
主流模型的推理速度通常在50-80 TPS之间。MiniMax M2提供的在线推理服务TPS(每秒token数)约为100,并且正在快速提升。
MiniMax从两个角度分析了这种价格和推理速度的组合。
一个是价格与性能的关系。合适的模型应该具有良好的性能且价格合理,在下图中应落在绿色区域。这里使用Artificial Analysis上10个测试集的平均分数来代表性能。

另一个是价格与推理速度的关系。部署模型时,通常存在权衡:较慢的推理速度可以带来较低的价格。理想的模型应该既便宜又快速。MiniMax比较了几种代表性模型。

3. 任何人都可以部署和使用它
MiniMax M2提供了多种部署和使用方式,满足不同用户的需求。
模型权重已在Hugging Face上开源,开发者可以自行部署。
用户可以从Hugging Face仓库下载模型权重:
https://huggingface.co/MiniMaxAI/MiniMax-M2
MiniMax推荐使用vLLM或SGLang来部署M2。
vLLM是一个快速且易于使用的大语言模型推理和服务库,最初由加州大学伯克利分校Sky Computing Lab开发。它具有PagedAttention等高效内存管理功能,支持动态批处理和流式响应。
vLLM部署指南:
https://huggingface.co/MiniMaxAI/MiniMax-M2/blob/main/docs/vllm_deploy_guide.md
SGLang是一个为大型语言模型和视觉语言模型设计的高性能服务框架。它旨在提供低延迟和高吞吐量的服务,核心功能包括快速后端运行时,提供带有RadixAttention的前缀缓存、零开销CPU(中央处理器)调度器等。
SGLang部署指南:
https://huggingface.co/MiniMaxAI/MiniMax-M2/blob/main/docs/sglang_deploy_guide.md
为了获得最佳性能,MiniMax推荐使用以下推理参数:
temperature=1.0, top_p = 0.95, top_k = 20
工具调用是Agent功能的核心,MiniMax提供了详细的工具调用指南:
https://huggingface.co/MiniMaxAI/MiniMax-M2/blob/main/docs/tool_calling_guide.md
基于M2模型,MiniMax推出了Agent产品,在中国市场发布了新版,并升级了海外版本。
通用Agent产品MiniMax Agent现已全面开放使用,限时免费:
https://agent.minimax.io/
MiniMax Agent提供两种模式:闪电模式和专业模式。
闪电模式是一种高效、高速的Agent,适用于对话问答、轻量级搜索和简单编码任务等即时输出场景。它通过强大的Agent能力增强了对话产品的体验。
专业模式提供专业的Agent能力,在复杂、长时间运行的任务上实现最佳性能。它擅长深度研究、全栈开发、创建PPT/报告、Web开发等任务。
MiniMax-M2 API已在MiniMax开放平台上提供,也限时免费:
https://platform.minimax.io/docs/api-reference/text-anthropic-api
对于开发者而言,M2提供了一个高性能、低成本的AI模型选择。特别是在Agent和代码生成任务中,M2的表现接近顶级模型,但成本仅为后者的零头。这使得个人开发者和小型企业也能够构建复杂的AI应用。
对于企业用户,M2提供了一个平衡性能、成本和速度的解决方案。企业可以用更低的成本部署AI Agent,提高业务效率。MiniMax内部已经使用这些Agent来处理各种复杂任务,从数据分析到人力资源筛选,证明了其在实际业务中的价值。
AI技术正在朝着更加普惠、实用的方向发展。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套 AI 大模型突围资料包:
- ✅ 从零到一的 AI 学习路径图
- ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
- ✅ 百度/阿里专家闭门录播课
- ✅ 大模型当下最新行业报告
- ✅ 真实大厂面试真题
- ✅ 2025 最新岗位需求图谱
所有资料 ⚡️ ,朋友们如果有需要 《AI大模型入门+进阶学习资源包》,下方扫码获取~

① 全套AI大模型应用开发视频教程
(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

② 大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

③ 大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

④ AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

⑤ 大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

⑥ 大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

以上资料如何领取?

为什么大家都在学大模型?
最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。
风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!


这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


以上全套大模型资料如何领取?

11万+

被折叠的 条评论
为什么被折叠?



