docker挂载NVIDIA显卡

from:docker挂载NVIDIA显卡运行pytorch
写在前面:

  请参考之前的文章安装好CentOS、NVIDIA相关驱动及软件、docker及加速镜像。
  主机运行环境
复制代码
$ uname -a
Linux CentOS 3.10.0-514.26.2.el7.x86_64 #1 SMP Tue Jul 4 15:04:05 UTC 2017 x86_64 x86_64 x86_64 GNU/Linux
$ cat /usr/local/cuda/version.txt
CUDA Version 8.0.61
$ cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
#define CUDNN_MAJOR      6
#define CUDNN_MINOR      0
#define CUDNN_PATCHLEVEL 21
#define CUDNN_VERSION    (CUDNN_MAJOR * 1000 + CUDNN_MINOR * 100 + CUDNN_PATCHLEVEL)
#include "driver_types.h"
# NVIDIA 1080ti
复制代码
 
一、关于GPU的挂载
1. 在docker运行时指定device挂载
  先查看一下有哪些相关设备
$ ls -la /dev | grep nvidia
crw-rw-rw-   1 root root    195,   0 Nov 15 13:41 nvidia0
crw-rw-rw-   1 root root    195,   1 Nov 15 13:41 nvidia1
crw-rw-rw-   1 root root    195, 255 Nov 15 13:41 nvidiactl
crw-rw-rw-   1 root root    242,   0 Nov 15 13:41 nvidia-uvm
crw-rw-rw-   1 root root    242,   1 Nov 15 13:41 nvidia-uvm-tools

  电脑上装了两个显卡。我需要运行pytorch,dockerhub中pytorch官方镜像没有gpu支持,所以只能先pull一个anaconda镜像试试,后面可以编排成Dockerfile。

$ docker run -it -d --rm --name pytorch -v /home/qiyafei/pytorch:/mnt/home --privileged=true --device /dev/nvidia-uvm:/dev/nvidia-uvm --device /dev/nvidia1:/dev/nvidia1 --device /dev/nvidiactl:/dev/nvidiactl okwrtdsh/anaconda3 bash
  okwrtdsh的镜像似乎是针对他们实验室GPU环境的,有点过大了,不过勉强运行一下还是可以的。 在容器内部还需要安装pytorch:
$ conda install pytorch torchvision -c pytorch
  这里运行torch成功,但是加载显卡失败了,可能还是因为驱动不匹配的原因吧, 需要重新安装驱动,暂时不做此尝试;
 
二、通过nvidia-docker在docker内使用显卡
(1)安装nvidia-docker
  nvidia-docker其实是docker引擎的一个应用插件,专门面向NVIDIA GPU,因为docker引擎是不支持NVIDIA驱动的,安装插件后可以在用户层上直接使用cuda。具体看上图。这个图很形象,docker引擎的运行机制也表现出来了,就是在系统内核之上通过cgroup和namespace虚拟出一个容器OS的用户空间,我不清楚这是否运行在ring0上,但是cuda和应用确实可以使用了(虚拟化的问题,如果关心此类问题可以了解一些关于docker、kvm等等虚拟化的实现方式,目前是系统类比较火热的话题)
  这里也可以通过添加apt或者yum sourcelist的方式进行安装,但是我没有root权限,而且update容易引起docker重启,如果不是实验室的个人环境不推荐这么做,防止破坏别人正在运行的程序(之前公司一个小伙子就是在阿里云上进行了yum update,结果导致公司部分业务停了一个上午)。
$ sudo rpm -i nvidia-docker-1.0.1-1.x86_64.rpm && rm nvidia-docker-1.0.1-1.x86_64.rpm
$ sudo systemctl start nvidia-docker
(2)容器测试
  我们还需要NVIDIA官方提供的docker容器nvidia/cuda,里面已经编译安装了CUDA和CUDNN,或者直接run,缺少image的会自动pull。
$ docker pull nvidia/cuda
$ nvidia-docker run --rm nvidia/cuda nvidia-smi

   在容器内测试是可以成功使用nvidia显卡的:

(3)合适的镜像或者自制dockerfile
  • 合适的镜像:这里推荐Floydhub的pytorch,注意对应的cuda和cudnn版本。
docker pull floydhub/pytorch:0.3.0-gpu.cuda8cudnn6-py3.22
nvidia-docker run -ti -d --rm floydhub/pytorch:0.3.0-gpu.cuda8cudnn6-py3.22 bash
  • 自制dockerfile
  首先,我们需要把要装的东西想清楚:
  1. 基础镜像肯定是NVIDIA官方提供的啦,最省事,不用装cuda和cudnn了;
  2. vim、git、lrzsz、ssh这些肯定要啦;
  3. anaconda、pytorch肯定要啦;
  所以需要准备好国内源source.list,否则安装速度很慢。
复制代码
deb-src http://archive.ubuntu.com/ubuntu xenial main restricted #Added by software-properties
deb http://mirrors.aliyun.com/ubuntu/ xenial main restricted
deb-src http://mirrors.aliyun.com/ubuntu/ xenial main restricted multiverse universe #Added by software-properties
deb http://mirrors.aliyun.com/ubuntu/ xenial-updates main restricted
deb-src http://mirrors.aliyun.com/ubuntu/ xenial-updates main restricted multiverse universe #Added by software-properties
deb http://mirrors.aliyun.com/ubuntu/ xenial universe
deb http://mirrors.aliyun.com/ubuntu/ xenial-updates universe
deb http://mirrors.aliyun.com/ubuntu/ xenial multiverse
deb http://mirrors.aliyun.com/ubuntu/ xenial-updates multiverse
deb http://mirrors.aliyun.com/ubuntu/ xenial-backports main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ xenial-backports main restricted universe multiverse #Added by software-properties
deb http://archive.canonical.com/ubuntu xenial partner
deb-src http://archive.canonical.com/ubuntu xenial partner
deb http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted
deb-src http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted multiverse universe #Added by software-properties
deb http://mirrors.aliyun.com/ubuntu/ xenial-security universe
deb http://mirrors.aliyun.com/ubuntu/ xenial-security multiverse
复制代码
  下载anaconda的地址:https://repo.continuum.io/archive/Anaconda3-5.0.1-Linux-x86_64.sh,这里直接在Dockerfile里下了,具体如下:
复制代码
$ vim Dockerfile

FROM nvidia/cuda LABEL author="qyf" ENV PYTHONIOENCODING=utf-8 RUN mv /etc/apt/sources.list /etc/apt/sources.list.bak ADD $PWD/sources.list /etc/apt/sources.list RUN apt-get update --fix-missing && \ apt-get install -y vim net-tools curl wget git bzip2 ca-certificates libglib2.0-0 libxext6 libsm6 libxrender1 mercurial subversion apt-transport-https software-properties-common RUN apt-get install -y openssh-server -y RUN echo 'root:passwd' | chpasswd RUN sed -i 's/PermitRootLogin prohibit-password/PermitRootLogin yes/' /etc/ssh/sshd_config RUN sed -i 's/#PasswordAuthentication yes/PasswordAuthentication yes/' /etc/ssh/sshd_config RUN echo 'export PATH=/opt/conda/bin:$PATH' > /etc/profile.d/conda.sh && wget --quiet https://repo.continuum.io/archive/Anaconda3-5.0.1-Linux-x86_64.sh -O ~/anaconda.sh && /bin/bash ~/anaconda.sh -b -p /opt/conda && rm ~/anaconda.sh ENV PATH /opt/conda/bin:$PATH RUN conda install pytorch torchvision -c pytorch -y ENTRYPOINT [ "/usr/bin/tini", "--" ] CMD [ "/bin/bash" ]
复制代码
  通过docker build构造镜像:
docker build -t pytorch/cuda8 ./
  运行成功调用cuda。
 
  
三、关于一些bug
  这里有部分debian的配置,我照着dockerhub上anaconda镜像抄的,这里就不再配置了,反正跑起来后有镜像也可以用。系统随后可能会出现错误:
kernel:unregister_netdevice: waiting for lo to become free. Usage count = 1
  这是一个Ubuntu的内核错误,截止到到目前为止似乎还没完全解决。
  这个小哥给出了一个解决方案,至少他给出的错误原因我是相信的:是由内核的TCP套接字错误引发的。这里我给出一些思考,关于上面的结构图,在显卡上,通过nvidia-docker,docker之上的容器可以使用到底层显卡(驱动显然是在docker之下的),而TCP套接字,我猜测也是这种使用方法,而虚拟出来的dockerOS,应该是没有权限来访问宿主机内核的,至少内核限制了部分权限。这位小哥给出了测试内核,如果有兴趣可以去帮他测试一下:https://bugs.launchpad.net/ubuntu/+source/linux/+bug/1711407/comments/46
 
  
<think>好的,我现在需要帮助用户了解如何在Docker中调用AMD显卡的GPU资源。首先,我得回顾一下用户提供的引用内容,看看有没有相关的信息。 用户提到了三个引用,其中引用[1]和[2]主要讲的是NVIDIA-Docker和CUDA相关的配置,而引用[3]提到AMD显卡配置深度学习环境变得方便,但不确定GPU利用率如何,还提到使用vscode和Docker插件管理容器。用户的问题是关于AMD GPU在Docker中的使用,所以重点应该放在引用[3]提到的内容,但可能现有的引用信息有限,需要结合其他知识来补充。 首先,我需要确定Docker是否支持AMD GPU。据我所知,AMD的GPU在深度学习中使用的是ROCm(Radeon Open Compute)平台,类似于NVIDIA的CUDA。所以,Docker中使用AMD GPU可能需要配置ROCm的相关环境。 接下来,用户可能需要安装ROCm的Docker支持。ROCm提供了自己的Docker镜像,用户可以通过这些镜像来创建支持AMD GPU的容器。需要确认是否需要安装特定的ROCm驱动,以及如何在Docker运行时启用GPU。 然后,检查用户提到的引用[3]中提到的AMD配置是否变得更简单。可能需要指导用户安装ROCm,然后在Docker中使用相应的参数,比如`--device`来挂载设备文件,或者使用ROCm提供的Docker命令。 另外,用户可能想知道具体的步骤,比如如何测试Docker容器是否能够识别AMD GPU,可能需要运行一些检查命令,比如`rocminfo`或者`hipinfo`,类似于NVIDIA的`nvidia-smi`。 还要注意用户是否有使用特定的工具,比如vscode的Docker插件,来管理容器,这可能涉及到配置devcontainer.json文件来启用GPU支持。 可能的步骤包括: 1. 确保主机系统安装了ROCm驱动。 2. 安装Docker和ROCm的Docker支持。 3. 拉取ROCm的Docker镜像。 4. 运行容器时添加必要的参数来启用GPU访问。 5. 在容器内验证GPU是否可用。 需要提醒用户注意ROCm的版本与显卡型号的兼容性,以及Linux内核版本的要求。例如,ROCm可能只支持特定版本的Ubuntu或CentOS,并且需要较新的内核。 可能的问题点在于,用户可能遇到权限问题,需要将用户添加到video或render组,或者配置Docker的权限。此外,某些AMD显卡可能不被ROCm官方支持,需要检查兼容性列表。 最后,生成相关问题时,需要考虑用户可能进一步询问如何验证GPU是否在Docker中正常工作,如何优化性能,或者如何处理多卡的情况,以及AMD和NVIDIADocker中使用GPU的差异。</think>### 如何在Docker中调用AMD显卡的GPU资源 #### 1. **安装ROCm驱动** AMD显卡在深度学习任务中依赖ROCm(Radeon Open Compute)平台,类似于NVIDIA的CUDA。首先需在宿主机安装ROCm驱动: - 确认显卡型号兼容性(如Radeon RX Vega/RDNA系列或Instinct系列)[^3]。 - 安装ROCm: ```bash sudo apt update sudo apt install rocm-hip-libraries ``` 安装后运行`rocminfo`验证驱动状态。 #### 2. **配置Docker环境** - **安装Docker**:确保宿主机已安装Docker Engine。 - **添加用户权限**: ```bash sudo usermod -aG docker $USER # 将当前用户加入docker组 sudo reboot # 重启生效 ``` #### 3. **拉取ROCm官方镜像** AMD提供了预配置的ROCm Docker镜像,例如: ```bash docker pull rocm/pytorch:latest ``` #### 4. **运行容器并启用GPU** 使用`--device`参数挂载GPU设备文件: ```bash docker run -it --device=/dev/kfd --device=/dev/dri/renderD128 --group-add=video rocm/pytorch:latest ``` - `--device=/dev/kfd`和`--dev/dri/renderD128`:挂载AMD GPU设备文件。 - `--group-add=video`:赋予容器访问GPU的权限。 #### 5. **验证GPU可用性** 在容器内运行以下命令: ```bash rocminfo # 查看ROCm设备信息 hip-smi # 类似nvidia-smi,监控AMD GPU状态 ``` #### 6. **配置开发环境(可选)** 结合VSCode的Remote-Containers插件管理容器开发: 1. 安装插件后,创建`.devcontainer/devcontainer.json`。 2. 添加GPU挂载配置: ```json { "runArgs": ["--device=/dev/kfd", "--device=/dev/dri/renderD128", "--group-add=video"] } ``` #### 注意事项 - **兼容性限制**:ROCm仅支持特定AMD显卡和Linux发行版(如Ubuntu 20.04/22.04)。 - **性能监控**:AMD GPU利用率可通过`rocprof`工具分析,但生态完善度仍落后于CUDA。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值