AI 大模型爆发与算力需求激增
近年来,人工智能大模型技术呈现爆发式增长,模型参数规模从亿级迅速扩展至万亿级。根据最新研究显示,全球 AI 算力需求正以每 3~4 个月翻番的速度突破临界点,远超传统摩尔定律预测的计算能力提升速度(每 18 个月翻倍),形成了所谓的“逆摩尔定律"(Inverse Moore's Law)。
随着 GPT-5、Llama 4、Claude Opus 4.1 等大模型的不断演进,模型参数规模持续扩大。2025 年,OpenAI GPT-5 参数规模行业预估从 3 万亿到 52 万亿不等,业界已开始关注模型效率而非简单扩大参数量,数据质量、数据多样性和领域覆盖度成为更重要的竞争因素。这种"膨胀速度"带来了前所未有的算力需求。据测算,训练 Llama 4 的成本预计花费数亿美元,而 2020 年训练 GPT-3 的成本约为450 万美元,五年间训练成本增长数十倍。这种算力需求的激增使得单一架构的算力供应难以满足,异构算力成为应对这一挑战的必然选择。
与此同时,推理场景的多样化进一步推动了对异构算力的需求。从通用对话到行业专用应用,从 AIGC 到智能助手、代码生成、多模态生成(视频、音乐、3D、数字人)等场景,对算力的需求各不相同——有的需要高并行计算能力,有的需要低延迟响应,有的则对能效比有极高要求。这种多样化的需求使得单一类型的计算单元难以全面满足,异构算力通过组合不同特性的计算单元(如 CPU、GPU、FPGA、ASIC 等),能够针对不同场景提供最优的算力解决方案,成为大模型时代的刚需。
国内外政策与产业驱动
在全球范围内,各国政府纷纷出台政策支持 AI 和算力基础设施发展,形成了强有力的产业驱动力。中国将人工智能和算力基础设施纳入国家战略,明确提出加快数字化发展,建设数字中国。截至 2025 年 6 月,中国在用算力中心标准机架达 1085 万架,智能算力规模达

最低0.47元/天 解锁文章
856

被折叠的 条评论
为什么被折叠?



