【YOLOv11】实战一:在LabVIEW 中使用OpenVINO实现YOLOv11

该文章已生成可运行项目,

‍‍🏡博客主页: virobotics(仪酷智能):LabVIEW深度学习、人工智能博主
🎄所属专栏:『LabVIEW深度学习实战』
📑推荐文章:『LabVIEW人工智能深度学习指南』
🍻本文由virobotics(仪酷智能)原创

🥳欢迎大家关注✌点赞👍收藏⭐留言📝订阅专栏

🧩前言

Hello,大家好,我是你们的virobotics(仪酷智能),一个深耕于LabVIEW和人工智能领域的开发工程师。

今天我们一起来看一下,如何使用LabVIEW OpenVINO工具包实现YOLOv11的推理部署。其他yolo模型在LabVIEW中的部署可以查看专栏【深度学习:物体识别(目标检测)】

🧭一、YOLOv11简介

YOLOv11是Ultralytics团队开发的YOLO(You Only Look Once)系列实时物体检测器的最新版本,它在2024年9月30日的YOLO Vision 2024(YV24)活动中被正式发布。

YOLOv11采用改进的主干和颈部架构,显著增强了特征提取能力,以实现更精确的目标检测和复杂任务性能。引入了精致的架构设计和优化的训练管道,提供更快的处理速度,并保持准确性和性能之间的最佳平衡。随着模型设计的进步,YOLOv11m在COCO数据集上实现了更高的平均精度(mAP),同时使用的参数比YOLOv8m少22%,从而在不影响精度的情况下提高了计算效率。YOLOv11可以无缝部署在各种环境中,包括边缘设备、云平台以及支持NVIDIA GPU的系统,确保了最大的灵活性。无论是对象检测、实例分割、图像分类、姿态估计还是定向对象检测(OBB),YOLOv11都能应对各种计算机视觉挑战。

在这里插入图片描述
在这里插入图片描述
YOLOv11官方开源地址:https://github.com/ultralytics/ultralytics

🎈二、YOLOv11环境搭建

  1. 部署本项目时所用环境
  1. 软件下载及安装

    在Windows上搭建OpenVINO™LabVIEW开发环境

  2. LabVIEW Object_Detection工具包下载与安装
    https://blog.youkuaiyun.com/virobotics/article/details/132529219

⚒️三、项目实战

1.双击打开LabVIEW,在“Help”选项下找到“Find Examples…”单击打开。
在这里插入图片描述
2. 打开范例查找器,选择Directory Structure–VIRobotics -AI Vision–Object Detection即可获取所有的范例。不同模型的范例,放到了不同文件夹下。
在这里插入图片描述
3. 以YOLOv11相关范例为例,双击“YOLOv11”范例文件夹,双击想要运行的vi(若您电脑当前无法使用相机,建议加载名字含有“imgs”的vi范例)。
在这里插入图片描述
(注意:范例VI名字中带有openvino表示该范例使用OpenVINO工具包实现推理;范例VI中带有nivision表示使用NI VISION方式进行图像采集并实现推理,如您预计使用官方NI VISION来采集图像,则可使用此范例。不带有nivision则表示使用仪酷工具包进行图像采集或图像读取来实现推理。)
4. 若您电脑没有安装NI VISION工具包,则在打开范例过程中会出现如下图所示弹窗,一直点击“Ignore Item”即可,或者直接点击Ignore All。
在这里插入图片描述
5. 加载YOLOv11模型实现目标检测
在这里插入图片描述
6. 完整代码
在这里插入图片描述
7.运行效果
在这里插入图片描述

🪜项目源码

如需源码,请在一键三连并订阅本专栏后评论区留下邮箱

🎯总结

以上就是今天要给大家分享的内容,希望对大家有用。如有笔误,还请各位及时指正。后续我们将为大家更新更多关于AI模型在LabVIEW的部署案例,欢迎大家关注博主。我是virobotics(仪酷智能),我们下篇文章见~

如您想要探讨更多关于LabVIEW与人工智能技术,欢迎加入我们的技术交流群:705637299。进群请备注:优快云

更多内容可查看

如果文章对你有帮助,欢迎✌关注、👍点赞、✌收藏、👍订阅专栏

推荐阅读

【YOLOv5】LabVIEW+TensorRT的yolov5部署实战(含源码))
【YOLOv5】手把手教你使用LabVIEW ONNX Runtime部署 TensorRT加速,实现YOLOv5实时物体识别(含源码)
【YOLOv8】实战一:手把手教你使用YOLOv8实现实时目标检测
【YOLOv8】实战二:YOLOv8 OpenVINO2022版 windows部署实战
【YOLOv8】实战三:基于LabVIEW TensorRT部署YOLOv8
【YOLOv9】实战一:在 Windows 上使用LabVIEW OpenVINO工具包部署YOLOv9实现实时目标检测(含源码)
【YOLOv9】实战二:手把手教你使用TensorRT实现YOLOv9实时目标检测(含源码)
👇技术交流 · 一起学习 · 咨询分享,请联系👇

本文章已经生成可运行项目
YOLOv11OpenVINO 中的实现涉及多个方面,下面从不同维度介绍实现方法: ### 代码示例实现 可参考如下代码实现 YOLOv11OpenVINO 中的识别功能: ```python import cv2 import pathlib from ultralytics import YOLO import matplotlib.pyplot as plt import openvino as ov core = ov.Core() det_model_path = pathlib.Path("/home/yuyue/yolov11/weights/yolo11n/yolo11n.xml") det_ov_model = core.read_model(det_model_path) device = "CPU" ov_config = {} det_compiled_model = core.compile_model(det_ov_model, device, ov_config) det_model = YOLO(det_model_path.parent, task="detect") if det_model.predictor is None: custom = {"conf": 0.25, "batch": 1, "save": False, "mode": "predict"} args = {**det_model.overrides, **custom} det_model.predictor = det_model._smart_load("predictor")(overrides=args, _callbacks=det_model.callbacks) det_model.predictor.setup_model(model=det_model.model) det_model.predictor.model.ov_compiled_model = det_compiled_model cap = cv2.VideoCapture(0) while True: ret, frame = cap.read() res = det_model(frame) image = res[0].plot() print(res) cv2.imshow("1", image) cv2.waitKey(1) ``` 此代码通过 OpenVINO 读取 YOLOv11 模型,编译模型后进行实时视频流的目标检测,并展示检测结果 [^5]。 ### 从 PyTorch 到 OpenVINO IR 格式转换及优化 要使用 OpenVINO 优化 YOLOv11 模型,需先准备 PyTorch 模型,之后将其转换为 OpenVINO IR 格式,再进行优化、推理和性能比较等操作。不过文档未给出具体代码,可参考相关 OpenVINO 官方文档完成从 PyTorch 到 OpenVINO IR 格式的转换 [^1]。 ### 实例分割的实现 YOLO11 支持分类、检测、分割、姿态评估、OBB 等功能。若要实现实例分割,可参考以 YOLO11 实例分割模型为例的 OpenVINO™ C# 运行示例,了解 YOLO11 - seg 模型的输入与输出情况,但文档未给出具体代码 [^2]。 ### 在 LabVIEW实现推理部署 使用 LabVIEW OpenVINO 工具包可实现 YOLOv11 的推理部署,其他 YOLO 模型在 LabVIEW 中的部署可查看专栏【深度学习:物体识别(目标检测)】,不过文档未给出具体的 LabVIEW 实现代码 [^3]。 ### 实时视频目标检测 实现结合 YOLOOpenVINO 对视频的实时目标检测的函数,该函数支持从视频文件或摄像头读取图像帧,完成推理处理后,实时显示检测结果、推理耗时和帧率(FPS)。检测结果可保存为带有边框标注和帧率信息的视频文件,同时支持将检测信息(如类别、时间戳等)记录为日志文件,便于后续分析,但文档未给出具体代码 [^4]。
评论 15
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

virobotics

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值