docker简单操作,以及运行gpu

本文详述了在Docker中运行GPU的步骤,包括下载TensorFlow GPU镜像、创建自定义Dockerfile、安装NVIDIA驱动及CUDA、启动nvidia-docker服务。还提及了在Kubernetes(K8s)集群中运行GPU遇到的问题,即如何在K8s中统一使用Docker和nvidia-docker,并探讨了通过挂载设备和--device选项尝试运行GPU的挑战。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

         最近正在做关于gpu的运行相关的工作。所以本篇文章所写的都是本人经过真实操作的,并非网络版本的copy,这个也是增加积累以及分享。

         先说下我最近的目的,希望训练模型可以运行在cpu以及gpu上,由于gpu运行速度较快,所以在机器学习中,计算资源的考虑必不可少,其实我的最终目标是使用kubernetes集群来管理运行基于tensorflow的模型训练任务。由于目前k8s运行gpu还没有实际跑通,所以最近一直比较苦恼,若是有大神能指导下,感谢之至。

         好的,下面来说如何在docker中运行gpu。

         先简单介绍下docker的基本使用。下面我就完全以我的操作来说明。

         首先下载需要的image,我是需要下载Google tensorflow的cpu版本,当然docker hub上基本都有常用的image,所以如果机器直接可访问外网,那么直接

        docker  pull  tensorflow:tensorflow

        如果无法访问外网,那么你需要通过其他方式下载,完了save镜像成为一个tar包,然后copy到你的环境中,进行load即可。下载image后,为了整个集群的各个node节点都可用,可以push到私有仓库即可。具体如下:

        docker tag  tensorflow:tensorflow  27.10.0.101:5000/tensorflow:v1

        docker push    27.10.0.101:5000/tensorflow:v1

       如上,就已经push到私有仓库了。如何创建私有仓库此处不做说明,因为网上资料已经很好了。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值