DeepSeek极端榨取硬件性能被曝光

DeepSeek 的出现是否意味着前沿 LLM 开发不再需要大规模 GPU 集群?

简单来说:不是的。虽然 DeepSeek 的 V3 模型通过一些非常厉害的优化技术,让 GPU 的使用效率变得更高了,但这并不意味着像 Google、OpenAI、Meta 和 xAI 这些公司之前花大钱搞的大规模 GPU 集群就没用了。AI 开发者的普遍看法是,大规模 GPU 集群仍然是训练顶尖 AI 模型的关键。

DeepSeek 做了什么?
DeepSeek 的 V3 模型通过一些“底层魔法”级别的优化,把 GPU 的性能榨干到了极限。

DeepSeek V3是一个低级别的(low level)技术,适用于需要高性能计算的场景。

  • 它通过使用GPU来加速处理,特别是对于需要大量并行计算的任务。

DeepSeek在用 NVIDIA的 H800 GPU 训练 V3 时,对 GPU 的核心计算单元(SM,流多处理器)进行了定制化调整:DeepSeek V3利用了NVIDIA的H800 GPU,该GPU具有132个SM(Streaming Multiprocessor),每个SM有20个SMG(Streaming Multiprocessor Group)。

具体来说,他们把 132 个 SM 中的 20 个专门用来处理服务器之间的通信任务,而不是计算任务。

这种调整是在 PTX(并行线程执行)级别进行的,PTX 是一种接近汇编语言的低级指令集,可以

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值