【玩转jetson orin nano(二)系统基本设置】

Jetson orin nano运行YOLOv8n

一、系统基本设置

1. 软件换源

# 做个备份
sudo cp /etc/apt/sources.list  /etc/apt/sources.list.bak
# 编辑文件内容 把文件里的内容全部替换成下面的清华源
sudo vim /etc/apt/sources.list
# 这个时候你会发现更新速度很快很快
sudo apt-get update		    # apt的资源列表,没有真正的对系统执行更新
sudo apt-get upgrade		# 把本地已安装的软件,与刚下载的软件列表里对应软件进行对比,如果发现已安装的软件版本太低,就会提示你更新。

换成下面的源

deb [arch=arm64] https://mirrors.ustc.edu.cn/ubuntu-ports/ focal main restricted universe multiverse
# deb-src http://mirrors.ustc.edu.cn/ubuntu-ports/ focal main main restricted universe multiverse
deb [arch=arm64] https://mirrors.ustc.edu.cn/ubuntu-ports/ focal-updates main restricted universe multiverse
# deb-src http://mirrors.ustc.edu.cn/ubuntu-ports/ focal-updates main restricted universe multiverse
deb [arch=arm64] https://mirrors.ustc.edu.cn/ubuntu-ports/ focal-backports main restricted universe multiverse
# deb-src http://mirrors.ustc.edu.cn/ubuntu-ports/ focal-backports main restricted universe multiverse
deb [arch=arm64] https://mirrors.ustc.edu.cn/ubuntu-ports/ focal-security main restricted universe multiverse
# deb-src http://mirrors.ustc.edu.cn/ubuntu-ports/ focal-security main restricted universe multiverse

在更新源时若遇到无法对目录 /var/lib/apt/lists/ 加锁

是因为上一次更新源的时候非常规中断导致的,解决方法如下:

$ sudo rm /var/lib/apt/lists/lock

2. 安装ssh

安装ssh

sudo apt-get install openssh-server

启动服务(22.04不用启动)

/etc/init.d/ssh start

接下来即可尝试连接

ssh 用户名@IP

3. jtop安装

sudo apt-get install python3-pip
sudo -H pip3 install -U jetson-stats
# 需要reboot
jtop
# 所有预装依赖版本
sudo jetson_release

4. 模式切换(可选)

切换至命令行模式可显著降低内存使用,提升后期深度学习模型的推理速度,但非必须项。

# 切换至命令行模式
sudo systemctl set-default multi-user.targetMM
sudo reboot
# 切换成图形界面模式:
sudo systemctl set-default graphical.target
sudo reboot

5. cuda+cudnn+TensorRT配置

后来发现镜像自带,无需安装,只需添加环境变量即可,直接跳过安装步骤

# 安装
sudo apt update
sudo apt list --upgradable
sudo apt install nvidia-jetpack

5.1 cuda配置

添加cuda环境变量

# 打开~/.bashrc
sudo vim ~/.bashrc
# 在文本末输入如下代码:
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda/lib64
export PATH=$PATH:/usr/local/cuda/bin
export CUDA_HOME=/usr/local/cuda
# 更新环境变量配置
source ~/.bashrc

5.2 cudnn配置

# 复制cudnn文件到cuda目录下
cd /usr/include && sudo cp cudnn* /usr/local/cuda/include
cd /usr/lib/aarch64-linux-gnu && sudo cp libcudnn* /usr/local/cuda/lib64

#修改文件权限,修改复制完的头文件与库文件的权限,所有用户都可读,可写,可执行:
sudo chmod 777 /usr/local/cuda/include/cudnn.h 
sudo chmod 777 /usr/local/cuda/lib64/libcudnn*

#重新软链接,这里的8.6.0和8对应安装的cudnn版本号和首数字
cd /usr/local/cuda/lib64

sudo ln -sf libcudnn.so.8.6.0 libcudnn.so.8

sudo ln -sf libcudnn_ops_train.so.8.6.0 libcudnn_ops_train.so.8
sudo ln -sf libcudnn_ops_infer.so.8.6.0 libcudnn_ops_infer.so.8

sudo ln -sf libcudnn_adv_train.so.8.6.0 libcudnn_adv_train.so.8
sudo ln -sf libcudnn_adv_infer.so.8.6.0 libcudnn_adv_infer.so.8

sudo ln -sf libcudnn_cnn_train.so.8.6.0 libcudnn_cnn_train.so.8
sudo ln -sf libcudnn_cnn_infer.so.8.6.0 libcudnn_cnn_infer.so.8

# 更新共享库缓存
sudo ldconfig

5.3 TensorRT配置

【1】TensorRT默认安装位置在/usr/lib/python3.8/dist-packages/中,若找不到trt, 则先执行以下命令

sudo apt install python3-libnvinfer*

这样再进入上述路径后tensorrt就存在了

nx@nx-desktop:/usr/lib/python3.8/dist-packages$ ls
cv2  numpy  tensorrt  tensorrt-8.5.2.2.dist-info

输入pip list后tensorrt也出现了。

【2】若要在虚拟环境中使用tensorrt,由于tensorrt不能被虚拟环境pytorch中定位使用。因此我们需要软链接一下,运行如下命令:

sudo ln -s /usr/lib/python3.8/dist-packages/tensorrt* /home/nano/anaconda3/envs/pytorch/lib/python3.8/site-packages/

sudo ln -s /usr/lib/python3.8/dist-packages/tensorrt* /home/nx/anaconda3/envs/pytorch/lib/python3.8/site-packages/

测试一下,运行如下指令:

python -c "import tensorrt;print(tensorrt.__version__)"

若出现版本号8.5.2.2,则成功。

5.4 查看环境版本

# cuda版本
nvcc -V
# cdunn版本
cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2
### 安装和配置 TorchVision 对于希望在 NVIDIA Jetson Orin Nano 平台上运行深度学习视觉任务的开发者来说,安装合适的 PyTorch 和 TorchVision 版本至关重要。由于官方尚未提供完全适配 JetPack 5.1 的 PyTorch 发行版,建议采用社区支持的方法来完成这一过程。 #### 创建轻量化 Python 环境 考虑到 Jetson Orin Nano 设备的硬件特性以及其有限的内存资源,推荐使用 Miniforge 来代替 Anaconda 或者 Miniconda 构建一个更加精简高效的 Python 开发环境[^5]: ```bash wget https://github.com/conda-forge/miniforge/releases/latest/download/Miniforge3-Linux-aarch64.sh bash Miniforge3-Linux-aarch64.sh -b source ~/miniforge3/etc/profile.d/conda.sh ``` 接着,在新环境中安装特定版本的 PyTorch 及相关依赖项以确保兼容性和性能优化: ```bash conda create -n jetson_pytorch python=3.9 conda activate jetson_pytorch conda install pytorch torchvision torchaudio pytorch-c nvidia ``` 上述命令会自动处理所有必要的依赖关系并将其安装至指定路径 `/usr/lib/python3.6/dist-packages` 下方[^2]。 #### 验证安装成功与否 为了确认安装无误,可以通过简单的测试脚本来验证 PyTorch 是否能够正常调用 GPU 加速功能: ```python import torch print(f"CUDA Available: {torch.cuda.is_available()}") print(f"Torch Version: {torch.__version__}") print(f"Device Name: {torch.cuda.get_device_name(0)}") ``` 如果一切顺利,则应看到 CUDA 支持状态为 `True` 同时显示正确的设备名称。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一只云卷云舒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值