yolo v5 NVIDIA Jetson Xavier NX 部署刷机+安环境(2)

本文详细记录了在Ubuntu环境下部署YOLOv5模型所需的步骤,包括安装依赖库如matplotlib、opencv等,配置环境,安装PyTorch及torchvision,并解决安装过程中遇到的问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

安环境

到10.28号,已经快差不多1个月,在我的磨叽之下,终于搞完,成功训练yolov5的detect.py文件,大部分参考了璐璐同学的NX所下环境,还有就是亲临指导了啊哈哈哈,她的文章点这里

1.开风扇:

$ sudo sh -c 'echo 140 >/sys/devices/pwm-fan/target_pwm'  //140那个数0-255之内都行

2.开机直接执行指令更新源:

sudo apt-get update

3.安装matplotlib:

sudo apt-get install python3-matplotlib

验证:python3
          import matplotlib as plt
          import numpy as np                                                                                                                            exit()
4.安装opencv:

sudo apt-get install python3-opencv
sudo apt-get remove python3-opencv

验证:python3
          import cv2
          cv2.__version__                                                                                                                                  exit()
5.安依赖:

sudo apt-get install cmake libopenblas-dev liblapack-dev libjpeg-dev
sudo apt-get install libhdf5-serial-dev hdf5-tools libhdf5-dev zlib1g-dev zip libjpeg8-dev liblapack-dev libblas-dev gfortran

6.安numpy:

sudo apt-get install git cmake libpython3-dev python3-numpy

7.安jtop:

$ sudo apt-get update
//$ sudo apt-get install python-pip(没用上)
$ sudo apt-get install python3-pip
$ sudo pip3 install jetson-stats
$ sudo jtop   # 启动jtop

8.安依赖:

sudo apt-get install cmake libopenblas-dev liblapack-dev libjpeg-dev
sudo pip3 install adafruit-circuitpython-servokit

9.安torch:torch安装最方便的就是找whl文件,然后安装,我的是1.7.0,资源如下:

链接:https://pan.baidu.com/s/1QLCGcw2WF-sABKlukP12Nw 
提取码:a58p 

拷到ubuntu系统上,第三行的文件名改改就行。

&sudo apt-get install python3-pip libopenblas-base libopenmpi-dev
&pip3 install Cython
&pip3 install torch-1.8.0-cp36-cp36m-linux_aarch64.whl(改改)

10.安torch vision:

git clone -b v0.8.1 https://hub.fastgit.org/pytorch/vision.git
cd vision
sudo python3 setup.py install

报错:把py文件中的if has ffmeg改为if False
打开py文件进行修改:sudo gedit 文件名,保存之后重新运行就可以安装了。
检查:

python3     
import torch    
import torchvision
exit()


11.进入yolo v5文件夹(网上下载)运行detect.py文件之后发现少环境再安装:

python3 detect.py
sudo pip3 install tqdm==版本
sudo pip3 install seaborn==版本

如果不成功在版本后面加上:--default-timeout=100 -i https://pypi.tuna.tsinghua.edu.cn/simple

12.都安好了就可以了,进入文件夹,运行.py文件

python3 detect.py

 去 runs/detect/exp里找

 成功,撒花~

更新了一下任务:在NX上跑通yolo v5的detect.py文件,然后学习detect.py的代码,然后搞个深度摄像头D435I,将两个玩意结合起来跑代码,会更快?我也不知道。但是我终于知道之前教学生,学生为啥总说我不会了,因为是真的不会呀...too难

### 部署YOLO模型于国产Jetson Xavier NX #### 确认JetPack版本 对于新入手的Jetson Xavier NX设备,确认所使用的JetPack SDK版本至关重要。这可以通过命令行工具完成,具体操作如下所示: ```bash sudo apt-cache show nvidia-jetpack ``` 上述指令能够展示当前系统中NVIDIA JetPack的相关信息,包括但不限于版本号等重要细节[^2]。 #### 准备存储介质 鉴于Jetson Xavier NX内置eMMC容量有限(仅16GB),推荐采用MicroSD卡作为主要的操作系统载体来扩展可用空间并优化性能表现。为此需执行以下步骤: - 装适用于目标平台的TF卡驱动程序; - 将Jetson Linux镜像写入准备好的MicroSD卡内; - 调整BIOS设置使机器优先从外部存储引导启动。 特别注意,在装特定品牌如冬虫电子提供的TF卡驱动前,请先查阅官方文档获取最新指导说明[^3]。 #### 导入预训练模型 为了实现高效推理运算,建议选用已经过TensorRT优化处理后的YOLO系列检测框架实例。例如,可以考虑使用预先转换成ONNX格式的最佳权重文件`best.onnx`上传至开发板,并通过TensorRT进一步编译为专用于硬件加速的目标文件形式以便后续调用[^1]。 ```python import tensorrt as trt from onnx import ModelProto def build_engine(onnx_file_path, engine_file_path): TRT_LOGGER = trt.Logger(trt.Logger.WARNING) with trt.Builder(TRT_LOGGER) as builder, \ builder.create_network() as network, \ trt.OnnxParser(network, TRT_LOGGER) as parser: config = builder.create_builder_config() config.max_workspace_size = 1 << 30 with open(onnx_file_path, 'rb') as model: parsed = parser.parse(model.read()) serialized_engine = builder.build_serialized_network(network, config) with open(engine_file_path, "wb") as f: f.write(serialized_engine) build_engine('path/to/best.onnx', 'output.engine') ``` 此脚本展示了如何利用Python API创建一个基于给定ONNX模型的新TensorRT引擎,并将其保存下来供实际应用环境中加载使用。
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值