Docker容器使用GPU

文章详细描述了如何在宿主机上安装NVIDIA驱动和CUDAToolkit,并确保版本对应。然后以特权模式启动容器,检查NVIDIA设备。接着在容器内部安装相同版本的NVIDIA驱动,通过特定参数执行安装脚本。此外,提到了使用宿主机CUDA库映射到容器内的方法,以及未尝试过的使用cuda-installer安装CUDAToolkit的选项。
部署运行你感兴趣的模型镜像

方法一

  1. 宿主机安装NVIDIA驱动和CUDA Toolkit(两者版本要对应)
    cuda_10.2.89_440.33.01_linux.run:二合一版本包,包括NVIDIA驱动和CUDA

  2. 容器以特权模式启动:启动时加–privileged,查看容器中/dev目录下是否有nvidia设备

  3. 在容器内安装NVIDIA驱动(宿主机和容器驱动要一样)
    sh **.run --noexec --target nvidia,可以解压二合一版本包得到NVIDIA-Linux-x86_64-440.33.01.run,将驱动拷贝进容器。在容器内执行如下命令安装驱动:

./NVIDIA-Linux-x86_64-440.33.01.run --silent --no-kernel-module --install-compat32-libs --no-nouveau-check --no-nvidia-modprobe --no-rpms --no-backup --no-check-for-alternate-installs --no-libglx-indirect --no-install-libglvnd --x-prefix=/tmp/null --x-module-path=/tmp/null --x-library-path=/tmp/null --x-sysconfig-path=/tmp/null
  1. 如果要使用CUDA Toolkit,可以将宿主机的CUDA库映射进容器。
    或者安装第3步解压得到的cuda-installer(这种方法我没试过)

您可能感兴趣的与本文相关的镜像

PyTorch 2.7

PyTorch 2.7

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值