AI算力需求每3.4个月翻倍,远超摩尔定律预测

「鸿蒙心迹」“2025・领航者闯关记“主题征文活动 10w+人浏览 221人参与

鉴于人工智能技术迅猛发展,算力作为支撑AI模型训练以及推理的核心基础设施,其重要性愈发明显。依据的研究报告,自2012年以来,人工智能训练任务所利用的算力每3.4个月便会实现一番翻翻,如此增长速度远远超越摩尔定律的预估数值。这般呈指数级增长的需求,致使AI算力已然成为推动人工智能迈进的关键因子。

AI算力基本上说的是执行人工智能算法所需要的计算资源,一般是用浮点运算次数也就是FLOPs来进行衡量。在人工智能这个领域当中,算力需求主要源自两个阶段,一个是模型训练阶段,另一个是模型推理阶段。模型训练阶段需要数量众多的计算资源去优化模型参数,而推理阶段则是要求能够以低延迟、高效率的方式去处理实际应用请求。

分析技术架构,AI算力主要依靠图形处理器即GPU、张量处理器也就是TPU、现场可编程门阵列就是FPGA等专用硬件 ,这里面,GPU因并行计算能力显现,格外适合处置矩阵运算等深度学习任务 ,当下, H100 GPU的单卡峰值算力达到1979 ,而新一代的B200芯片更将性能提升到近20 ,这些硬件进步明显提高了AI模型的训练效率。

于算力规模范畴,全球处于领先地位的AI研究机构已然构建起超大规模的计算集群,谷歌的TPU v4集群涵盖4096个芯片,可提供约1 的算力,微软和合作打造的超级计算机具备约28.5万个CPU核心以及1万个GPU,这些规模巨大的计算资源致使训练参数量达到万亿级别的大模型得以成为可能。

按照斯坦福大学那份《2024年人工智能指数报告》来说,训练像GPT - 4这类前沿模型所需的那种算力资源差不多约达2.15×10^25 FLOPs,跟三年前的模型比起来增长幅度接近300倍。这样的增长态势针对算力基础设施提出了相对更高的要求,还推动了算力供给模式的那种创新。

当下,AI算力的供给途径主要被划分成了三种类型,分别是:自行构建集群,云端服务并且边缘计算。自行构建集群适用于有着持续大规模算力需求的大型企业,然而其初始投资高达数百万到数千万之间,并不固定。云端服务具备弹性伸缩的能力,按照需求付费的模式极大地降低了使用的门槛。边缘计算是借助于在数据产生的源头部位部署算力,从而有效地减少数据传输的延迟情况,格外适合对于实时性有着较高要求的应用场景 。

针对成本构成而言,AI算力的总持有成本内含硬件购置费用,电力消耗支出,冷却系统开支以及运维人力等诸多方面,鉴于配备8张H100 GPU的服务器,单台设备采购成本大概是25万美元左右,一年内所需电力消耗约计2.4万千瓦时,再加上冷却以及运维费用之后,年度总成本极有可能超过30万美元,如此高昂的成本致使诸多企业转而谋求更为经济的算力获取途径 。

从技术发展所呈现的趋势来看,AI算力正向着异构计算、存算一体以及光计算等全新架构的方向不断迈进发展。具体而言里面的存算一体技术,借助减少数据搬运所产生的能耗这一方式来达成,有望把能效提升至10倍以上之数发展。况且这边要说的量子计算,虽然它目前依旧处在早期初始探索阶段,然而却已经展示出能够解决特定AI问题的潜在能力与威力发展。

在能效这一方面,最新的AI芯片于制程工艺以及架构设计上,不断地进行优化。台积电的3纳米工艺跟7纳米工艺相比较,在性能相同的状况下,功耗降低了大约30%。与此同时,液冷技术加以运用使得数据中心功率密度提升到40kW/机柜,然而传统风冷系统一般情况下,仅仅能够支持15 - 20kW/机柜。

全球算力的布局,也展现出了全新的特点。依据IDC数据,在2024年的时候,全球AI算力基础设施的市场规模,达到了1850亿美元。预期到2027年,这个规模将会增长至3000亿美元。美国、中国、欧盟以及日本,是主要的算力市场。然而东南亚、中东等新兴市场,其增长速度更为迅速,年复合增长率超过了35%。

于应用层面而言,不同行业针对AI算力的需求存有显著差别,自动驾驶范畴要在实时状况下处理多传感器数据,其算力需求一般超出1000 TOPS,医疗影像分析更看重推理精度,对于算力要求相对不多然而稳定性要求更为高些,自然语言处理应用不但在训练阶段需要高性能算力,同样在推理阶段要求拥有低延迟响应能力 。

在可持续发展这一视角之下,AI算力所存在的能耗问题,日益愈发受到关注。全球范围之内的数据中心,当下所消耗的电量方面,大约占据全球总用电量的1%,其中AI计算在这当中所占的比例,处于持续上升的态势。基于此情况,产业界正在借助多种不同的方式,用以提升能效,其中涵盖采用更为高效的供电架构,优化冷却系统以及利用可再生能源等 。

往后,因AI模型规模持续扩充以及应用场景持续延展,对算力的需求依旧会维持快速增长态势。与此同时,算力供给模式会愈发多元,混合云、边缘计算以及专属集群等不同形态会依照具体需求灵活搭配。在技术方面,新计算架构、芯片设计以及能效优化等领域的突破,会持续促使AI算力性能得以提升且成本降低。

在AI算力发展进程里,要对性能、成本、能效以及安全等诸多因素予以平衡 。合理的算力规划不但得顾及当下需求,还得对未来技术演进趋向有所预见 。对于多数组织来讲,采取混合策略,融合自建算力与云服务的优势情况,或许是最为务实的选择 。与此同时方面,重视能效提升以及可持续发展,这也会成为AI算力部署的重要考量因素 。

随着技术持续迈进,AI 算力正愈发普及并更具易用条件。于大型科研机构而言,至中小企业范畴,皆能够凭借合理成本获取所需计算资源。此普惠化倾向会有力促使人工智能技术展开创新以及应用,最终给社会各个领域带来益处 。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值