使用Jetson AGX Orin进行口罩识别

JetsonAGXOrin上的口罩识别实战:darknet与MobaXterm应用
本文介绍了如何在JetsonAGXOrin上使用maskDetection_jetson代码库进行口罩识别,涉及darknet框架的安装、模型下载、配置调整及实际训练过程。结果显示,尽管Orin的GPU性能强大,但识别效果仍有待优化。

在 https://gitee.com/gpus/maskDetection_jetson 代码仓有个口罩识别的案例,我们来看看能不能在Jetson AGX Orin上搞定。

先将该代码仓fork到自己的代码仓(以便魔改)

回到自己的代码仓:

根据README.md来操作吧!

首先需要下载darknet框架并安装,但是众所周知,github不是很友好。

所以还是把 https://github.com/AlexeyAB/darknet 通过gitee来过渡:https://gitee.com/zhanghui_china/darknet

git clone https://gitee.com/zhanghui_china/darknet

根据README

我们来操作:

cd darknet

mkdir build_release

cd build_release

cmake ..

cmake的版本好像有点不够:

记得上次是装过cmake 3.23了。

那怎么回事呢?原来张小白上次整理存储,把/home/zhanghui下的很多东西都挪到/home/zhanghui1下面去了。

那就改一下.bashrc吧:

source ~/.bashrc

cmake --version

cd darknet/build_release/

cmake ..

cmake --build . --target install --parallel 12

...

成功完成安装。

下载darknet53.conv.74模型:

wget https://pjreddie.com/media/files/darknet53.conv.74

由于这又不是一个好的URL,张小白只好再用其他方法下载:

然后使用MobaXterm传到Orin上去。

下载口罩识别工程:

git clone https://gitee.com/zhanghui_china/maskDetection_jetson

cd maskDetection_jetson

unzip dataset.zip

执行 ./0_dataDispatch.py

执行结果如下:

修改mask.data文件:

将每个文件或目录名改为真实的地址:

复制 /home1/zhanghui/darknet/cfg/yolov4-tiny-custom.cfg 到当前目录:

根据以下要求:

修改 yolov4-tiny-custom.cfg

编辑 1_trainMask.sh

将前面下载的74文件移动到当前目录:

开始模型训练:

屏幕会闪很久:

据说Jetson Nano 4G会训练90分钟左右。

看看Orin到底需要训练多久:

在训练的过程中,Orin的风扇开始响了。前面都是静悄悄的干活。。。

我们另开一个终端窗口,打开jtop看下使用情况:

ALL:

GPU:

CPU:

确实有12个CPU。

看来主要是GPU在跑。

跑完了。

其实时间也帮我算了:

real 13m19.088s
user 26m12.781s
sys 2m59.157s

现在GPU是休息了:

看来算力比Jetson Nano 4G大很多的结论是没跑的了。(等有空把这些骚操作在我的Jetson Nano B01上试一下——你这个喜新厌旧的张小白。。。)

cp yolov4-tiny-custom.cfg yolov4-tiny-custom.cfg.train

再按照下面的指引:

修改yolov4-tiny-custom.cfg的参数:

像上图那样打开注释,增加注释即可。

修改推理代码 2_demoMask.sh

先用本地test试一下吧:

./2_demoMask.sh

由于MobaXterm的加持,图形界面显示到了Windows中:

从测试视频上来看,正面戴口罩识别率较好,侧脸识别率略差。也有误识别的情况:

你对着一个口罩识别它没有戴口罩是几个意思?

当然,也可以识别出人没有戴口罩:

识别完毕!

下次等张小白搞定了摄像头后,再来看下Jetson AGX Orin能否用摄像头识别有没有戴口罩。

(全文完,谢谢阅读)

### 在 Jetson AGX Orin使用 TensorRT 部署 YOLOv7 要在 Jetson AGX Orin 上通过 TensorRT 部署 YOLOv7,可以按照以下方式实现: #### 1. 环境准备 确保已经安装了适用于 Jetson AGX Orin 的必要软件包和库。这包括但不限于 PyTorch 和 torchvision 的正确版本配置[^3]。如果尚未完成此操作,则可以通过 Conda 创建一个新的虚拟环境并克隆已有的 Torch 环境来简化设置过程。 ```bash conda create --name yolov7_tensorrt --clone torch3.8 ``` 接着激活新创建的环境,并验证其是否正常工作。 #### 2. 安装 TensorRT 及相关依赖项 为了支持 TensorRT 加速推理功能,在目标设备上需先安装最新版 TensorRT SDK。可以从 NVIDIA 开发者网站获取适合 Jetpack 版本对应的 TensorRT 软件包。此外还需确认 CUDA 工具链以及 cuDNN 库均已就绪[^2]。 #### 3. 修改 `requirements.txt` 文件 进入 YOLOv7 源码目录后编辑 `requirements.txt` ,加入对 ONNX 导出器的支持以及其他可能需要用到的 Python 扩展模块。例如添加如下几行内容到文件末尾: ```plaintext onnx==1.10.2 onnx-simplifier>=0.3.6,<0.4 tensorrt>=8.0.0,<9.0.0 ``` 保存更改后的清单文档以便后续 pip 自动解析这些新增需求。 #### 4. 将模型转换成 ONNX 格式 利用官方脚本或者自定义逻辑把训练好的权重参数导出为通用中间表示形式——ONNX Model。通常情况下执行命令类似于这样子的形式: ```python import torch from models.experimental import attempt_load device = 'cuda' if torch.cuda.is_available() else 'cpu' model = attempt_load('weights/best.pt', map_location=device) # 加载预训练模型 dummy_input = torch.randn(1, 3, 640, 640).to(device) torch.onnx.export( model, dummy_input, "yolov7.onnx", opset_version=11, do_constant_folding=True, input_names=['input'], output_names=['output'] ) print("Exported to ONNX successfully!") ``` 上述代码片段展示了如何基于原始框架实例化网络结构并将之序列化至磁盘作为 `.onnx` 文件存储下来[^1]。 #### 5. 构建 TRT Engine 最后一步就是借助 TensorRT API 来加载先前生成的那个静态图描述符进而编译成为高效的运行时引擎对象供实际预测调用。这里推荐参考开源项目 **TensorRT-Alpha** 提供的一系列示范程序学习具体实践细节: ```cpp #include <NvInfer.h> // ... other includes ... int main(int argc, char *argv[]) { // Initialize logger and builder objects. nvinfer1::ILogger gLogger; auto builder = nvinfer1::createInferBuilder(gLogger); // Set max workspace size (e.g., 1GB). const uint64_t MAX_WORKSPACE_SIZE = 1 << 30; IBuilderConfig* config = builder->createBuilderConfig(); config->setMaxWorkspaceSize(MAX_WORKSPACE_SIZE); // Load the ONNX file into memory... std::ifstream onnxFile("yolov7.onnx", std::ios::binary); assert(onnxFile.good()); std::vector<char> buffer((std::istreambuf_iterator<char>(onnxFile)), std::istreambuf_iterator<char>()); // Build engine from parsed network definition. IParseNetworkDefinition parseNetDef(buffer.data(), buffer.size()); ICudaEngine* engine = builder->buildCudaEngine(parseNetDef.get()); // Serialize & save serialized engine data for future reuse without recompilation. void* ptr; size_t sz = engine->serialize(&ptr); ofstream outFile("yolov7.trt"); outFile.write(reinterpret_cast<const char*>(ptr), sz); } ``` 以上 C++ 示例说明了怎样读取之前产生的 ONNX 描述并通过 TensorRT Builder 接口构建最终可部署的目标产物即所谓的 “TRT Engine”。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

张小白TWO

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值