jetson nano部署yolov5以及出现的一些问题解决方法

本文详细介绍了在jetson nano上部署yolov5的完整过程,包括镜像下载、烧录、环境配置、CUDA设置、pytorch安装以及遇到的问题和解决方案。提供了一步步的操作指南,帮助读者避免遇到类似问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

jetson nano部署yolov5以及出现的一些问题解决方法

前言:
最近开始着手准备毕设,因此开始接触使用jetson nano并且着手开始配置yolov5环境。在挣扎示错几天之后终于是完成了!在此脱坑之际,我将我遇到的一些错误进行汇总,将整个过程进行复刻供大家参考。其中一些环境的配置是根据社区大佬们经验分享进行的。参考链接如下:

  1. https://blog.youkuaiyun.com/LZL2020LZL/article/details/113808964
  2. https://blog.youkuaiyun.com/IamYZD/article/details/119618950
  3. https://blog.youkuaiyun.com/weixin_45454706/article/details/110346822

镜像下载问题
博客中大多是分享的2019.3月的镜像,我们可以进入英伟达官网进行镜像的下载,本人使用的是jetson nano B01和2G版本不同,下载时注意不要下载出错,4G版本的镜像名字如下图。
下载地址:
https://developer.nvidia.com/zh-cn/embedded/downloads
在这里插入图片描述
下载的镜像文件大小6G左右吧。

镜像烧录问题:
首先将一个64G(推荐)大小的SD格式化,使用的格式化软件为SD Card Formatter。使用过树莓派的应该不陌生,此步骤不锁赘述。格式化软件资源如下:
https://www.sdcard.org/downloads/formatter/sd-memory-card-formatter-for-windows-download/
接着将下载好的镜像文件少些进格式化的SD卡中:
烧录工具有两个,本人在学习树莓派是使用的是win32DiskImager,资源如下:
https://sourceforge.net/projects/win32diskimager/files/Archive/

但是注意!!!!!!!!!
网上教程讲解时表示该镜像烧录工具也能成功,但是本人在使用该烧录工具时,虽然能成功烧录但是进入系统后会出现各种问题,如pip不能升级,各种依赖库不能安装的问题。所以说还是选择Etcher进行镜像烧录。
Etcher文件的下载地址如下:
https://www.balena.io/etcher/

开机启动这一步,emmm读者自己操作吧。

与PC机传输文件
本人使用的是MobaXterm,非常好用。
我传到了网盘,包括烧录程序、MobaXterm、Win32DiskImager、Yolov5源码以及pytorch有需要自提。

百度网盘:
https://pan.baidu.com/s/1dYdTc3HsXPZjxVxEcSIGgg 提取码: 77iy
csdn:
https://download.youkuaiyun.com/download/fichf/51241522

在这里插入图片描述

在这里插入图片描述
选择xftp,输入jetson nano的host和name,在jetson nano终端中输入ifconfig,本人连接了实验室的WIFI,所以在wlan0处有自己的地址,直接输入到host里面就行了&

### Jetson Nano部署 YOLOv5 的教程 在 NVIDIA Jetson Nano 平台上成功部署 YOLOv5 模型需要完成多个关键步骤,这些步骤涵盖了环境准备、模型转换以及性能优化等内容。以下是具体的内容说明: #### 1. 环境搭建 为了确保能够在 Jetson Nano 上运行 PythonPyTorch 库,需先安装必要的依赖项。这可以通过以下命令实现: ```bash sudo apt-get update && sudo apt-get upgrade -y sudo apt-get install python3-pip python3-dev -y ``` 上述操作可以解决潜在的 `nvidia-l4t-bootloader` 错误问题[^3]。 #### 2. 安装 PyTorch 及其他依赖库 PyTorchYOLOv5 所必需的核心框架之一,在 Jetson Nano 上推荐使用官方支持的版本。通过访问 [NVIDIA Deep Learning Framework](https://pytorch.org/) 页面获取适合 Jetson Nano 的安装脚本并执行如下命令: ```bash pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 ``` #### 3. 下载与克隆 YOLOv5 仓库 从 GitHub 获取最新的 YOLOv5 存储库,并下载预训练权重文件: ```bash git clone https://github.com/ultralytics/yolov5.git cd yolov5 pip3 install -r requirements.txt wget https://github.com/ultralytics/yolov5/releases/download/v6.0/yolov5s.pt ``` 此部分提供了完整的代码基础结构和初始参数设置[^1]。 #### 4. 使用 TensorRT 进行加速 为了提高推理速度,可利用 TensorRT 将 ONNX 格式的模型进一步编译成高效的引擎文件。首先将 PyTorch 模型导出为 ONNX 文件: ```python import torch model = torch.hub.load('ultralytics/yolov5', 'custom', path='yolov5s.pt') dummy_input = torch.randn(1, 3, 640, 640) torch.onnx.export(model, dummy_input, "yolov5s.onnx", opset_version=12) ``` 接着按照文档指引构建 TRT 引擎[^2]: ```bash trtexec --onnx=yolov5s.onnx --saveEngine=yolov5s.trt --workspace=1024 --fp16 ``` #### 5. 测试模型效果 最后验证整个流程是否正常工作,加载生成好的 `.trt` 文件进行实时检测演示。 ```python from models.common import DetectMultiBackend weights="yolov5s.trt" device=torch.device('cuda') if torch.cuda.is_available() else torch.device('cpu') model=DetectMultiBackend(weights, device=device,dnn=False,data=None,fp16=True) img=cv2.imread("test.jpg") results=model(img,half=True)[0].numpy() print(results) ``` 以上即是在 Jetson Nano 设备上完整部署 YOLOv5方法概述[^1]。
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值