2月18日,马斯克带着“地表最聪明AI”Grok-3高调登场,号称用20万块GPU砸出“大力出奇迹”的模型,直接叫板OpenAI和国产新星DeepSeek。这场AI巨头之战,是算力碾压还是技术革新?
一、Grok-3:马斯克的“钞能力”AI
- 性能屠榜,推理能力封神
- 在数学(AIME 2025)、科学(GPQA)、编码(LCB)三大基准测试中,Grok-3全面刷新SOTA,以93分碾压DeepSeek R1(80分)和OpenAI的O3-mini(87分)。
- LMSYS盲测榜单中,Grok-3以1402分的Elo评分断层领先,成为首个突破1400分的模型。
- 在数学(AIME 2025)、科学(GPQA)、编码(LCB)三大基准测试中,Grok-3全面刷新SOTA,以93分碾压DeepSeek R1(80分)和OpenAI的O3-mini(87分)。
- 20万GPU集群炼出“推理怪兽”
- 马斯克自建超算集群Colossus,第一阶段投入10万块H100 GPU训练122天,第二阶段再砸10万块H100/H200,耗时92天,总耗电超100兆瓦。
- 引入“测试时计算”技术,动态分配算力资源,让模型在复杂问题(如航天轨道计算)中展示完整思维链。
- DeepSearch:要革搜索引擎的命
- 全新智能体功能,可全网深度检索并解析信息,用户能实时查看搜索过程。演示中,Grok-3成功预测NCAA“疯狂三月”比赛结果,直接挑战谷歌搜索。
二、Grok-3 vs DeepSeek:技术路线之争
维度 | Grok-3 | DeepSeek R1/V3 |
训练规模 | 20万GPU集群,成本未公开(预估数亿美元) | 2048块H800 GPU,成本557.6万美元 |
性能表现 | 数学、推理能力领先,跑分屠榜 | 性价比突出,同等成本下性能最优 |
商业模式 | 付费订阅(30美元/月),未来开源旧版本 | 免费开放,企业API按需收费 |
核心优势 | 超强算力+实时联网搜索 | 轻量化部署+多语言支持 |
DeepSeek隔空回应
面对Grok-3的“地表最强”宣言,DeepSeek理性回应:
- “AI的‘聪明’取决于任务场景。我们追求性能与伦理、成本的平衡,而非参数军备竞赛。”
- 强调自身在多语言支持(近百种语言)、响应速度和开源生态上的优势。
三、硅谷VS中国:AI竞赛走向何方?
- 1. 硅谷逻辑:算力即正义
- OpenAI、xAI疯狂融资(xAI估值750亿,OpenAI目标3000亿),用天量GPU堆砌模型。马斯克放话:“没有20万GPU,别想玩AGI。”
- 2. 中国路线:低成本突围
- DeepSeek以1/10成本实现顶级性能,掀起“AI基建质疑潮”,证明小规模集群+算法优化同样能打。
- 3. 用户用脚投票
- 网友吐槽:“Grok-3生成游戏代码时连续翻车,Demo疑似剪辑”、“DeepSeek免费且够用,何必为马斯克的情怀买单?”
四、未来之战:开源、伦理与AGI
- Grok-3的开源承诺:xAI宣布“成熟后开源Grok-2”,但用户更期待现役模型开放。
- 伦理隐忧:Grok-3联网搜索未设内容过滤,DeepSeek则内置严格安全机制。
- AGI竞速:马斯克称Grok-3已接近“感知智能”,而DeepSeek聚焦垂直场景落地。
Grok-3与DeepSeek的对决,本质是两种文明逻辑的碰撞:前者象征硅谷的“算力霸权”,后者代表东方的“效率智慧”。当马斯克用20万GPU堆砌技术高墙时,中国正以开源生态构建AI“丝绸之路”。这场竞赛没有终点,但唯一确定的是——未来的AI之王,必属于更懂“人”的模型。
最后,来看看DeepSeek和Grok如何看待对方的吧:
DeepSeek-R1看待Grok-3
Grok3看待DeepSeek-R1