萧箫 发自 凹非寺
量子位 报道 | 公众号 QbitAI
AI芯片行业,正面临着层出不穷的需求。

据Research and Markets预测,数据中心的AI芯片(即AI加速器)市场规模将从2018年的28.4亿美元,增长到2023年的211.9亿美元。
AI芯片,分为训练和推理,前者用来“做模型”(跑大量数据、调整参数),后者则用来“出结果”(实时检测、目标跟踪)。
“做模型”就像是产品加工,在“工厂”里完成,但模型出来后,就不局限在“工厂”中了,还能部署到手机、汽车等设备上使用。

这里的“工厂”,通常是云端,那里有大量服务器部署;而手机、汽车等设备,被称为边缘 (终端),也是AI模型真正需要用到的地方。
可以看出,AI训练芯片只靠绝对算力——只要算力越高,模型训练得就越快。
但手机和汽车等设备,受体积、储能、实时等诸多限制和要求,算力已不再是单一的考虑条件。
AI推理芯片不仅看算力,还要讲究时延、功耗和成本。
相对于AI训练芯片,AI推理芯片需求量更高,使用场景也更广泛。
市调机构Tractica称,预计从2018到2025年的7年时间里,AI推理芯片将有10倍的增长,至2025年可达170亿美元。

事实上,无论是算力、还是硬件要求,边缘推理芯片的设计都要比云端更复杂。
处在野蛮生长阶段的AI芯片市场,做好云端推理芯片已非易事,入局边缘芯片还会更难。
但高通却做出了尝试。

高通推出的Cloud AI 100芯片在18个月内实现性能领先,尤其在云端AI推理芯片领域展现出高效能、低功耗的优势。这款芯片设计复杂,支持灵活的封装形式,目标不仅限于云端,还包括边缘人工智能市场。高通通过Cloud AI 100 Edge AI SDK,提供低功耗、高性能的解决方案,应用于新闻推送、广告、视频处理等多个领域,并已开始面向客户出货,预计2021年上半年将有采用该芯片的商用设备上市。
最低0.47元/天 解锁文章
33

被折叠的 条评论
为什么被折叠?



