
黄仁勋近日在 GTC 2025 的主题演讲中展示,16 家 OEM 目前已开始发售搭载 Nvidia 最新 Blackwell GPU 的系统。
代理式人工智能(Agentic AI)的兴起给基础设施带来了新的压力。如果英伟达(Nvidia)首席执行官黄仁勋(Jensen Huang)的预测成真,随着企业部署基于推理模型的人工智能代理,对加速计算的需求将增加 100 倍。那么,客户将从哪里获得运行这些推理工作负载所需的 GPU 和服务器呢?云端是一个显而易见的选择,但,这可能会非常昂贵。
当 ChatGPT 在 2022 年底和 2023 年初首次亮相时,人们仿佛看到了“淘金热”,各家公司纷纷打开钱包,积极探索各种方法。大部分探索都是在云端进行的,因为云端对于零星工作负载的成本可能会更低。然而,随着企业逐渐明确他们想要长期运行的人工智能类型(在许多情况下是代理人工智能),云端似乎不再是一个理想的选择。
从云端到本地:AI 部署的转变
将人工智能从概念验证转变为实际部署的公司之一是 H2O.ai。这是一家总部位于旧金山的预测和生成人工智能解决方案提供商。据 H2O 创始人兼首席执行官 Sri Ambati 介绍,该公司与戴尔(Dell)合作,在客户现场部署本地人工智能工厂

最低0.47元/天 解锁文章
550

被折叠的 条评论
为什么被折叠?



