亚马逊云科技与英伟达携手开发下一代基础设施,助力大型机器学习模型训练和生成式AI应用程序构建(第八部分)

英伟达与亚马逊云科技共同设计服务器,利用GPU进行大规模AI运算,尤其在某些工作负载下,GPU能效远超CPU。H100GPU在LLM任务中能效比CPU高300倍。双方合作涉及散热设计、系统安全、GPUDirect™优化及定制EFA网络结构,未来将继续研发更高效能的服务器解决方案。

为可扩展、高效的AI采用新的服务器设计

在 H100 发布之前,英伟达和在热力、电气和机械领域拥有专业知识的亚马逊云科技工程团队合作设计了服务器,以利用 GPU 提供大规模 AI,重点关注亚马逊云科技基础设施的能源效率。在某些 AI 工作负载下,GPU 的能效通常是 CPU 的20倍,对于 LLM 而言,H100 的能效比 CPU 高 300 倍。

双方的合作包括开发系统散热设计、集成式安全和系统管理、与 Amazon Nitro 硬件加速虚拟机管理程序一起实现安全性,以及针对亚马逊云科技定制 EFA 网络结构的英伟达 GPUDirect™ 优化技术。

在亚马逊云科技和英伟达专注于服务器优化工作的基础上,两家公司现已开始合作开发未来的服务器设计,以借助新一代系统设计、冷却技术和网络可扩展性提高扩展效率。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值