萧箫 发自 凹非寺
量子位 报道 | 公众号 QbitAI
AI芯片行业,正面临着层出不穷的需求。
据Research and Markets预测,数据中心的AI芯片(即AI加速器)市场规模将从2018年的28.4亿美元,增长到2023年的211.9亿美元。
AI芯片,分为训练和推理,前者用来“做模型”(跑大量数据、调整参数),后者则用来“出结果”(实时检测、目标跟踪)。
“做模型”就像是产品加工,在“工厂”里完成,但模型出来后,就不局限在“工厂”中了,还能部署到手机、汽车等设备上使用。
这里的“工厂”,通常是云端,那里有大量服务器部署;而手机、汽车等设备,被称为边缘 (终端),也是AI模型真正需要用到的地方。
可以看出,AI训练芯片只靠绝对算力——只要算力越高,模型训练得就越快。
但手机和汽车等设备,受体积、储能、实时等诸多限制和要求,算力已不再是单一的考虑条件。
AI推理芯片不仅看算力,还要讲究时延、功耗和成本。
相对于AI训练芯片,AI推理芯片需求量更高,使用场景也更广泛。
市调机构Tractica称,预计从2018到2025年的7年时间里,AI推理芯片将有10倍的增长,至2025年可达170亿美元。
事实上,无论是算力、还是硬件要求,边缘推理芯片的设计都要比云端更复杂。
处在野蛮生长阶段的AI芯片市场,做好云端推理芯片已