云上快速搭建Serverless AI实验室

Serverless Kubernetes和ACK虚拟节点基于ECI提供GPU容器实例功能,可让用户在云上低成本快速搭建serverless AI实验室,降低运维负担。文中介绍了使用GPU容器实例的方法,还给出创建Serverless Kubernetes集群、GPU容器实例的示例,展示serverless方式可让用户更专注AI模型构建。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Serverless Kubernetes和ACK虚拟节点都已基于ECI提供GPU容器实例功能,让用户在云上低成本快速搭建serverless AI实验室,用户无需维护服务器和GPU基础运行环境,极大降低AI平台运维的负担,显著提升整体计算效率。

如何使用GPU容器实例

在pod的annotation中指定所需GPU的类型(P4/P100/V100等),同时在resource.limits中指定GPU的个数即可创建GPU容器实例。每个pod独占GPU,暂不支持vGPU,GPU实例的收费与ECS GPU类型收费一致,不产生额外费用,目前ECI提供多种规格的GPU类型。(请参考https://help.aliyun.com/document_detail/114581.html)

示例

  1. 创建Serverless Kubernetes集群

选择深圳区域,可用区D。
云上快速搭建Serverless AI实验室
云上快速搭建Serverless AI实验室
云上快速搭建Serverless AI实验室

  1. 创建GPU容器实例

我们使用tensorflow模型对如下图片进行识别:
云上快速搭建Serverless AI实验室

使用模版创建pod,其中选择P100 GPU规格。在pod中的脚本会下载上述图片文件,并根据模型进行识别计算。
云上快速搭建Serverless AI实验室
云上快速搭建Serverless AI实验室

apiVersion: v1
kind: Pod
metadata:
name: tensorflow
annotations:
k8s.aliyun.com/eci-gpu-type : "P100"
spec:
containers:

  • image: registry-vpc.cn-shenzhen.aliyuncs.com/ack-serverless/tensorflow
    name: tensorflow
    command:
    • "sh"
    • "-c"
    • "python models/tutorials/image/imagenet/classify_image.py"
      resources:
      limits:
      nvidia.com/gpu: "1"
      restartPolicy: OnFailure
      部署后pod会处于pending状态:
      云上快速搭建Serverless AI实验室

等待几十秒后pod状态变成Running,待计算完成后会变成Terminated状态。
云上快速搭建Serverless AI实验室

从pod的日志我们可以看到pod能够识别P100 GPU硬件,而且可以正确识别图片为Panda。
云上快速搭建Serverless AI实验室

总结

通过以上示例可以看出,从环境搭建到计算结束,整个过程用户无需购买和管理服务器,无需安装GPU运行环境,serverless的方式可以让用户更加关注在AI模型构建,而不是底层基础设施的管理和维护。

转载于:https://blog.51cto.com/14031893/2410526

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值