制作支持GPU的用于部署AI模型的ARM64版docker镜像

本文详细介绍了如何在Jetson Nano上基于NVIDIA的l4t-base镜像搭建PyTorch 1.2环境,包括GPU测试、依赖包安装、PyTorch编译与验证,以及设置中文支持。

      hub.docker.com上绝大部分镜像都是只能在X86平台上使用的,arm上的很少,arm64上的装有Ubuntu18.04的只找到个arm64v8/ubuntu:18.04镜像,pull下来后使用过,里面很多东西没安装,连基本的vim都没有安装,而且安装完一些支持包后使用nvidia-docker run 创建的容器里面GPU设备总是找不到,GPU测试通不过,虽然CUDA和cuDNN都可以找到,不知道具体原因,没时间进一步查找,只好改用NVIDIA提供的l4t-base镜像,在NVIDIA的l4t-base镜像上的基础上做出的镜像使用GPU是没问题的。

    首先查找镜像版本:

         docker search nvcr.io/nvidia/l4t-base

然后执行下列步骤拉取镜像并创建并运行容器:

      docker pull nvcr.io/nvidia/l4t-base:r32.3.1
      xhost +si:localuser:root
      sudo docker run --runtime nvidia --network host -it --name nvidia-l4t-base-container -e DISPLAY=$DISPLAY -v /data/workspace:/home -v /tmp/.X11-unix/:/tmp/.X11-unix nvcr.io/nvidia/l4t-base:r32.3.1

      在容器里安装g++和make。编译测试GPU能否使用的sample代码nbody,运行编译出的nbody,如果能弹出炫酷的动画窗口就表示没问题了:

       apt-get update && apt-get install -y --no-install-recommends make g++
       cp -r /usr/local/cuda/samples /tmp
       cd /tmp/samples/5_Simulations/nbody
       make
      ./nbody

测试没问题的话,接下来安装部署运行AI模型需要的若干支持包:

     apt-get update
     apt-get install python3-pip  cmake libopenblas-dev 

     apt-get install python-pip  #可选
     apt-get install pkg-config libfreetype6-dev
&

评论 40
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Arnold-FY-Chen

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值