YOLO-darknet-on-Jetson-TX2

本文档详细介绍了如何在Jetson TX2上部署YOLO算法进行实时目标检测,包括安装配置过程及使用说明。从环境搭建到运行示例代码,为读者提供了全面的指导。
部署运行你感兴趣的模型镜像

YOLO-darknet-on-Jetson-TX2

            https://github.com/Alro10/YOLO-darknet-on-Jetson-TX2

software:

            https://blog.youkuaiyun.com/cherry_dr/article/details/80134373

NVIDIA TensorRT使用记录:

https://www.jianshu.com/p/59fe26073a41

Classifying Images with ImageNet

TensorRT下载地址:https://developer.nvidia.com/nvidia-tensorrt-download 
TesnsoRT介绍文档:https://devblogs.nvidia.com/tensorrt-3-faster-tensorflow-inference/ 
TensorRT开发者指南:http://docs.nvidia.com/deeplearning/sdk/tensorrt-developer-guide/index.html 
TensorRT样例代码:http://docs.nvidia.com/deeplearning/sdk/tensorrt-developer-guide/index.html#samples

Yolo darknet is an amazing algorithm that uses deep learning for real-time object detection but needs a good GPU, many CUDA cores. For Jetson TX2 I would like to recommend to you use this repository if you want to achieve better performance, more fps, and detect more objects real-time object detection on Jetson TX2

alt text

How to run YOLO on Jetson TX2

After boot (Jetpack 3.1) and install OPENCV...

Copy original Yolo repository:

$ git clone https://github.com/pjreddie/darknet.git

$ cd darknet

$ sudo sed -i 's/GPU=0/GPU=1/g' Makefile

$ sudo sed -i 's/CUDNN=0/CUDNN=1/g' Makefile

$ sudo sed -i 's/OPENCV=0/OPENCV=1/g' Makefile

$ make -j4

You will have to download the pre-trained weight file yolo.weights or tiny-yolo but this is much faster but less accurate than the normal YOLO model.

$ wget https://pjreddie.com/media/files/yolo.weights

$ wget https://pjreddie.com/media/files/tiny-yolo-voc.weights

How to run YOLO using onboard camara Jetson TX2? It's a really hard question, I needed to find many sites but I found the right solution:

$ ./darknet detector demo cfg/coco.data cfg/yolo.cfg yolo.weights "nvcamerasrc ! video/x-raw(memory:NVMM), width=(int)1280, height=(int)720,format=(string)I420, framerate=(fraction)30/1 ! nvvidconv flip-method=0 ! video/x-raw, format=(string)BGRx ! videoconvert ! video/x-raw, format=(string)BGR ! appsink"

Or if you wan to run using tiny-yolo only need to change

$ ./darknet detector test cfg/voc.data cfg/tiny-yolo-voc.cfg tiny-yolo-voc.weights

Run in videos

$ ./darknet detector demo cfg/coco.data cfg/yolov2.cfg yolo.weights data/

Run in photos or image

$ ./darknet detect cfg/yolov2.cfg yolo.weights data/

I recommend to take a look...https://pjreddie.com/darknet/yolo/ for more details of YOLO!

I think it is important to install a SSD and setup to work as the root directory. Also build a kernel and extra modules, you can do the last recommendation after o before build and run YOLO. Jetson only has 32gb. See this videos:

https://www.youtube.com/watch?v=ZpQgRdg8RmA&t=4s

您可能感兴趣的与本文相关的镜像

Yolo-v5

Yolo-v5

Yolo

YOLO(You Only Look Once)是一种流行的物体检测和图像分割模型,由华盛顿大学的Joseph Redmon 和Ali Farhadi 开发。 YOLO 于2015 年推出,因其高速和高精度而广受欢迎

### 部署YOLO目标检测模型到NVIDIA Jetson TX2 在NVIDIA Jetson TX2上部署和运行YOLO目标检测模型涉及多个步骤,包括环境准备、模型编译、以及测试运行。以下是一个详细的指南,帮助您完成这一过程。 #### 环境准备 1. **刷机和系统安装**:首先,确保您的Jetson TX2已经安装了合适的操作系统。您可以使用NVIDIA的SDK Manager来安装JetPack SDK,它包含了Jetson TX2所需的驱动程序、库和工具。 2. **更换国内APT源**:为了加快软件包的下载速度,建议将APT源更换为国内镜像源,如阿里云或清华大学的镜像。 3. **安装必要的软件包**: - 安装`setuptools`、`pip`、`cmake`等基础开发工具。 - 安装`opencv`库,用于图像处理。如果需要特定版本的OpenCV,可能需要从源码编译安装。 #### YOLO模型的安装与编译 1. **获取YOLO源码**:根据您想要使用的YOLO版本(如YOLOv3、YOLOv5或YOLOv7),从GitHub克隆相应的仓库。例如,对于YOLOv3,可以使用如下命令: ```bash git clone https://github.com/pjreddie/darknet yolo3 cd yolo3 ``` 2. **编译YOLO**:进入YOLO项目的根目录后,根据您的需求编辑Makefile文件,开启GPU加速选项(如果可用)。对于Jetson TX2,通常需要启用GPU支持以获得更好的性能。然后执行编译命令: ```bash make ``` 3. **下载预训练模型**:YOLO项目通常提供预训练的权重文件,可以通过官方提供的链接下载。例如,对于YOLOv3,可以使用以下命令下载预训练权重: ```bash wget https://pjreddie.com/media/files/yolov3.weights ``` #### 测试YOLO模型 1. **运行YOLO检测**:使用YOLO提供的命令行工具对图片或视频流进行目标检测。例如,使用YOLOv3检测一张图片: ```bash ./darknet detect cfg/yolov3.cfg yolov3.weights data/dog.jpg ``` 对于YOLOv7,命令可能略有不同,具体取决于项目的文档说明。 2. **查看结果**:YOLO会在指定的输出路径生成检测结果,或者直接在终端显示检测到的对象及其置信度。 #### 性能优化 - **使用TensorRT**:对于YOLOv5等版本,可以考虑使用NVIDIA的TensorRT来优化模型推理速度,特别是在处理实时视频流时。这通常涉及到将PyTorch模型转换为ONNX格式,再通过TensorRT进行优化。 - **调整参数**:根据应用场景的不同,适当调整检测阈值、输入尺寸等参数,可以在精度和速度之间找到最佳平衡点。 #### 注意事项 - 在安装和编译过程中遇到问题时,建议查阅相关项目的官方文档或社区论坛,寻找解决方案。 - 确保所有依赖项都已正确安装,尤其是CUDA和cuDNN等NVIDIA特有的库。 通过上述步骤,应该能够在NVIDIA Jetson TX2上成功部署并运行YOLO目标检测模型。根据具体的应用需求,可能还需要进一步的定制化开发和优化工作。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值