Ultralytics:YOLO11使用教程

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

前言

相关介绍

  • YOLO11是Ultralytics YOLO系列实时目标探测器的最新版本,重新定义了具有尖端精度,速度和效率的可能性。在以前的YOLO版本令人印象深刻的进步的基础上,YOLO11引入了架构和训练方法的重大改进,使其成为广泛的计算机视觉任务的通用选择。
    在这里插入图片描述

  • [1] YOLO11 源代码地址:https://github.com/ultralytics/ultralytics.git

  • [2] YOLO11 官方文档:https://docs.ultralytics.com/models/yolo11/

  • 关键特性

    • 增强的特征提取:YOLO11采用了改进的骨干和颈部架构,增强了特征提取能力,以实现更精确的目标检测和复杂的任务性能。
    • 优化效率和速度:YOLO11引入了精炼的架构设计和优化的培训管道,提供更快的处理速度,并保持精度和性能之间的最佳平衡。
    • 更少参数的更高精度:随着模型设计的进步,YOLO11m在使用COCO数据集时实现了更高的平均平均精度(mAP)。
  • 支持的任务和模式
    YOLO11建立在YOLOv8中引入的多功能模型范围之上,为各种计算机视觉任务提供增强的支持:
    在这里插入图片描述
    该表提供了YOLO11模型变体的概述,展示了它们在特定任务中的适用性以及与Inference、Validation、Training和Export等操作模式的兼容性。这种灵活性使YOLO11适用于计算机视觉的广泛应用,从实时检测到复杂的分割任务。

  • 表现度量标准:用于衡量某个系统、组织或个人表现的多个标准或指标。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

前提条件

实验环境

torch==2.0.1
torchvision==0.15.2
onnx==1.14.0
onnxruntime==1.15.1
pycocotools==2.0.7
PyYAML==6.0.1
scipy==1.13.0
onnxsim==0.4.36
onnxruntime-gpu==1.18.0
gradio==4.31.5
opencv-python==4.9.0.80
psutil==5.9.8
py-cpuinfo==9.0.0
huggingface-hub==0.23.2
safetensors==0.4.3

安装环境

pip install ultralytics
# 或者
pip install ultralytics -i https://pypi.tuna.tsinghua.edu.cn/simple # 国内清华源,下载速度更快

在这里插入图片描述

在这里插入图片描述

项目地址

Linux

git clone https://github.com/ultralytics/ultralytics.git

cd ultralytics
# conda create -n yolo11 python=3.9
# conda activate yolo11
pip install -r requirements.txt
pip install -e .
Cloning into 'ultralytics'...
remote: Enumerating objects: 4583, done.
remote: Counting objects: 100% (4583/4583), done.
remote: Compressing objects: 100% (1270/1270), done.
remote: Total 4583 (delta 2981), reused 4576 (delta 2979), pack-reused 0
Receiving objects: 100% (4583/4583), 23.95 MiB | 1.55 MiB/s, done.
Resolving deltas: 100% (2981/2981), done.

Windows

请到https://github.com/ultralytics/ultralytics.git网站下载源代码zip压缩包。

cd yolov10
# conda create -n yolo11 python=3.9
# conda activate yolo11
pip install -r requirements.txt
pip install -e .

YOLO11使用教程

在这里插入图片描述
在这里插入图片描述在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

进行目标检测

yolo predict model=yolo11n.pt source=test_imgs/

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

进行实例分割

yolo predict model=yolo11n-seg.pt source=test_imgs/

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

进行姿势估计

yolo predict model=yolo11n-pose.pt source=test_imgs/

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

进行旋转框检测

yolo predict model=yolo11n-obb.pt source=test_imgs/

在这里插入图片描述
在这里插入图片描述

进行图像分类

yolo predict model=yolo11n-cls.pt source=test_imgs/

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

参考文献

[1] YOLO11 源代码地址:https://github.com/ultralytics/ultralytics.git
[2] YOLO11 官方文档:https://docs.ultralytics.com/models/yolo11/

### 下载和使用YOLOv11 #### 安装Python环境 为了运行YOLOv11,首先需要确保已安装适当版本的Python。建议安装最新的稳定版Python 3.x系列,当前最新版本为Python 3.11.5[^3]。 ```bash # 使用以下命令来检查是否已经安装了Python以及其版本 python --version ``` 如果尚未安装,则可以从官方网站获取适合操作系统的安装包并完成安装过程。 #### 获取YOLOv11源码或预训练模型 目前官方渠道并未提及YOLOv11的存在;现有的最先进版本为YOLOv10,在实时目标检测方面实现了显著进步,并解决了之前版本的一些局限性[^1]。因此对于YOLOv11的具体信息无法提供确切指导。不过可以推测未来更新可能会继续沿用类似的发布模式: - **GitHub仓库**:通常新版本会发布在一个公共代码托管平台上,比如GitHub。 - **论文发表**:伴随每次主要迭代,研究团队也会撰写学术文章详细介绍改进之处和技术细节。 #### 设置依赖项 一旦确认获得正确的YOLO版本后,下一步就是配置必要的软件库和支持工具链。这一步骤可能涉及但不限于如下几项工作: - 安装`pip`管理器用于处理第三方模块; - 根据项目文档指示执行`requirements.txt`文件内的指令以加载所需库; - 配置CUDA/CUDNN加速计算资源(如果有GPU支持的话)。 ```bash # 更新 pip 至最新版本 python -m pip install --upgrade pip setuptools wheel # 进入克隆下来的YOLO目录下找到 requirements 文件 cd yolovX # X表示具体版本号 pip install -r requirements.txt ``` #### 测试与验证 最后可以通过内置脚本测试整个流程是否正常运作。大多数情况下都会有一个简单的例子用来展示基本功能,例如预测给定图片里的对象类别。 ```python from pathlib import Path import cv2 import torch from models.experimental import attempt_load from utils.general import non_max_suppression, scale_coords from utils.datasets import letterbox def detect_objects(image_path='data/images/bus.jpg', weights='yolov10.pt'): device = 'cuda' if torch.cuda.is_available() else 'cpu' model = attempt_load(weights, map_location=device) # 加载模型权重 img_size = 640 conf_thres = 0.25 iou_thres = 0.45 img0 = cv2.imread(image_path) img = letterbox(img0, new_shape=img_size)[0] img = img[:, :, ::-1].transpose(2, 0, 1).copy() img = torch.from_numpy(img).to(device) img = img.float() / 255.0 if img.ndimension() == 3: img = img.unsqueeze(0) pred = model(img, augment=False)[0] pred = non_max_suppression(pred, conf_thres, iou_thres) results = [] for det in pred: if det is not None and len(det): det[:, :4] = scale_coords(img.shape[2:], det[:, :4], img0.shape).round() for *xyxy, conf, cls in reversed(det): label = f'{model.names[int(cls)]} {conf:.2f}' plot_one_box(xyxy, img0, label=label, color=(0, 255, 0), line_thickness=3) return img0 if __name__ == '__main__': result_image = detect_objects('path_to_your_test_image') cv2.imshow("Detected Objects", result_image) cv2.waitKey(0) cv2.destroyAllWindows() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

FriendshipT

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值