近期,两条重磅新闻震动了全球科技圈:
NVIDIA 投资 OpenAI 1000 亿美元,用于建设大规模 AI 数据中心和 GPU 集群。
阿里巴巴宣布投入 3000 亿元人民币,加码自研芯片、超算中心和云计算平台。
这背后透露出的信息非常清晰:AI 的发展,已经不再是单纯的算法比拼,而是进入了 “算力为王” 的时代。GPU 作为核心算力引擎,正在成为资本竞相追逐的战略高地。
一、GPU和CPU为什么不同
GPU(Graphics Processing Unit,图形处理器)最初是为了处理 图像渲染 而设计的芯片。与 CPU(中央处理器)不同,GPU 拥有成千上万个并行处理核心,适合进行矩阵乘法、向量计算等 高度并行化任务。这使得 GPU 在 AI 训练和推理 中成为核心算力引擎。

在深度学习中,模型训练往往需要对海量数据进行矩阵乘积,计算规模可达数百亿甚至数万亿次操作。CPU 在串行任务上强,但 GPU 在大规模并行计算上更具优势。例如,NVIDIA H100 每秒能执行 2000 TFLOPS(万亿次浮点运算)

最低0.47元/天 解锁文章
4万+

被折叠的 条评论
为什么被折叠?



