『大模型笔记』Docker如何清理Build Cache以及nvidia/cuda官方镜像!

Docker如何清理Build Cache以及nvidia/cuda官方镜像!

一. docker system df

根据你的 docker system df 输出结果,Docker 的不同部分占用了相当多的磁盘空间。以下是每个部分的详细说明以及清理建议:

root@zkf-ubuntu18 docker system df
TYPE            TOTAL     ACTIVE    SIZE      RECLAIMABLE
Images          35        15        199.6GB   157.7GB (79%)
### NVIDIA CUDA Docker 镜像信息与使用 #### 查找和获取CUDA镜像 为了确保GPU应用程序能够正常运行,在构建Docker容器时通常会选择基于官方提供的`nvidia/cuda`镜像创建自定义镜像。这些基础镜像已经预先配置好必要的环境变量以及标签(例如`com.nvidia.volumes.needed`),使得它们可以直接同nvidia-docker兼容并利用主机上的GPU资源[^1]。 #### 使用方法 一旦选择了合适的CUDA版本作为父级镜像,可以通过编写Dockerfile进一步定制化开发环境。下面是一个简单的例子: ```dockerfile FROM nvidia/cuda:11.0-base # Selecting specific version of CUDA base image RUN apt-get update && \ apt-get install -y python3-pip && \ pip3 install numpy pandas scikit-learn tensorflow-gpu==2.3.* CMD ["bash"] ``` 上述脚本会拉取带有CUDA 11.0支持的基础镜像,并在其之上安装Python包管理工具pip以及其他依赖项如NumPy, Pandas等科学计算库还有TensorFlow GPU版。最后设置默认启动命令为进入交互式的shell模式。 #### 运行含有GPU加速功能的应用程序 要让应用能访问到宿主机中的显卡硬件,则需通过特定参数调用`docker run`指令。比如: ```bash docker run --gpus all -it my_custom_cuda_image bash ``` 这里的关键在于加入了`--gpus all`选项,它告诉Docker引擎允许容器内的进程访问所有的物理GPU设备;而如果不加此标记,默认情况下容器是没有权限操作任何图形处理单元的。 #### 安装NVIDIA-Docker插件 对于想要启用这种特性的系统来说,除了常规的Docker服务外还需要额外部署由NVIDIA公司维护的支持组件——即nvidia-docker及其关联的服务端口。具体的安装流程取决于操作系统类型,但对于大多数Linux发行版而言一般遵循如下步骤[^3]: 1. 添加软件源仓库地址; 2. 导入GPG密钥以验证下载的安全性; 3. 更新本地APT缓存索引; 4. 执行apt-get install完成最终的产品落地; 5. 重启Docker守护线程使更改生效。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI大模型前沿研究

感谢您的打赏,我会继续努力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值