hub.docker.com上绝大部分镜像都是只能在X86平台上使用的,arm上的很少,arm64上的装有Ubuntu18.04的只找到个arm64v8/ubuntu:18.04镜像,pull下来后使用过,里面很多东西没安装,连基本的vim都没有安装,而且安装完一些支持包后使用nvidia-docker run 创建的容器里面GPU设备总是找不到,GPU测试通不过,虽然CUDA和cuDNN都可以找到,不知道具体原因,没时间进一步查找,只好改用NVIDIA提供的l4t-base镜像,在NVIDIA的l4t-base镜像上的基础上做出的镜像使用GPU是没问题的。
首先查找镜像版本:
docker search nvcr.io/nvidia/l4t-base
然后执行下列步骤拉取镜像并创建并运行容器:
docker pull nvcr.io/nvidia/l4t-base:r32.3.1
xhost +si:localuser:root
sudo docker run --runtime nvidia --network host -it --name nvidia-l4t-base-container -e DISPLAY=$DISPLAY -v /data/workspace:/home -v /tmp/.X11-unix/:/tmp/.X11-unix nvcr.io/nvidia/l4t-base:r32.3.1
在容器里安装g++和make。编译测试GPU能否使用的sample代码nbody,运行编译出的nbody,如果能弹出炫酷的动画窗口就表示没问题了:
apt-get update && apt-get install -y --no-install-recommends make g++
cp -r /usr/local/cuda/samples /tmp
cd /tmp/samples/5_Simulations/nbody
make
./nbody
测试没问题的话,接下来安装部署运行AI模型需要的若干支持包:
apt-get update
apt-get install python3-pip cmake libopenblas-dev
apt-get install python-pip #可选
apt-get install pkg-config libfreetype6-dev
&

本文详细介绍了如何在Jetson Nano上基于NVIDIA的l4t-base镜像搭建PyTorch 1.2环境,包括GPU测试、依赖包安装、PyTorch编译与验证,以及设置中文支持。
最低0.47元/天 解锁文章
1805





