使用YOLO11训练自己的数据集【下载模型】-【导入数据集】-【训练模型】-【评估模型】-【导出模型】


前言:

YOLO11于2024年9月30日由YOLOv8团队正式发布,为了让我们能够趁热打铁早发论文,接下来让我们仔细研究一下如何使用YOLO11训练自己的模型

一、下载模型

进入YOLOv11官方网址https://github.com/ultralytics/ultralytics/tree/main下载整个工程
在这里插入图片描述
下载完成后解压到自己的目标文件夹,通过自己的IDE打开工程在下图框选位置添加训练train.py、验证val.py和测试detect.py文件,同时在上述文件中添加相应的代码:
在这里插入图片描述

  • Train.py代码如下所示
from ultralytics import YOLO
from ultralytics import RTDETR



if __name__ == '__main__':
    # 加载模型
    model = YOLO(r'cfg/models/11/yolo11.yaml')  # 不使用预训练权重训练
    # model = YOLO(r'yolov8.yaml').load("yolov8n.pt")  # 使用预训练权重训练
    # 训练参数 ----------------------------------------------------------------------------------------------
    model.train(
        data=r'E:/dyh/ultralytics-main/data5/data.yaml',
        epochs=300,  # (int) 训练的周期数
        patience=50,  # (int) 等待无明显改善以进行早期停止的周tiao期数
        batch=16,  # (int) 每批次的图像数量(-1 为自动批处理)
        imgsz=640,  # (int) 输入图像的大小,整数或w,h
        save=True,  # (bool) 保存训练检查点和预测结果
        save_period=-1,  # (int) 每x周期保存检查点(如果小于1则禁用)
        cache=False,  # (bool) True/ram、磁盘或False。使用缓存加载数据
        device='',  # (int | str | list, optional) 运行的设备,例如 cuda device=0 或 device=0,1,2,3 或 device=cpu
        workers=8,  # (int) 数据加载的工作线程数(每个DDP进程)
        project='runs/train',  # (str, optional) 项目名称
        name='exp',  # (str, optional) 实验名称,结果保存在'project/name'目录下
        exist_ok=False,  # (bool) 是否覆盖现有实验
        pretrained=True,  # (bool | str) 是否使用预训练模型(bool),或从中加载权重的模型(str)
        optimizer='SGD',  # (str) 要使用的优化器,选择=[SGD,Adam,Adamax,AdamW,NAdam,RAdam,RMSProp,auto]
        verbose=True,  # (bool) 是否打印详细输出
        seed=0,  # (int) 用于可重复性的随机种子
        deterministic=True,  # (bool) 是否启用确定性模式
        single_cls=False,  # (bool) 将多类数据训练为单类
        rect=False,  # (bool) 如果mode='train',则进行矩形训练,如果mode='val',则进行矩形验证
        cos_lr=False,  # (bool) 使用余弦学习率调度器
        close_mosaic=0,  # (int) 在最后几个周期禁用马赛克增强
        resume=False,  # (bool) 从上一个检查点恢复训练
        amp=True,  # (bool) 自动混合精度(AMP)训练,选择=[True, False],True运行AMP检查
        fraction=1.0,  # (float) 要训练的数据集分数(默认为1.0,训练集中的所有图像)
        profile=False,  # (bool) 在训练期间为记录器启用ONNX和TensorRT速度
        freeze=None,  # (int | list, 可选) 在训练期间冻结前 n 层,或冻结层索引列表。
        # 分割
        overlap_mask=True,  # (bool) 训练期间是否应重叠掩码(仅适用于分割训练)
        mask_ratio=4,  # (int) 掩码降采样比例(仅适用于分割训练)
        # 分类
        dropout=0.0,  # (float) 使用丢弃正则化(仅适用于分类训练)
        # 超参数 ----------------------------------------------------------------------------------------------
        lr0=0.01,  # (float) 初始学习率(例如,SGD=1E-2,Adam=1E-3)
        lrf=0.01,  # (float) 最终学习率(lr0 * lrf)
        momentum=0.937,  # (float) SGD动量/Adam beta1
        weight_decay=0.0005,  # (float) 优化器权重衰减 5e-4
        warmup_epochs=3.0,  # (float) 预热周期(分数可用)
        warmup_momentum=0.8,  # (float) 预热初始动量
        warmup_bias_lr=0.1,  # (float) 预热初始偏置学习率
        box=7.5,  # (float) 盒损失增益
        cls=0.5,  # (float) 类别损失增益(与像素比例)
        dfl=1.5,  # (float) dfl损失增益
        pose=12.0,  # (float) 姿势损失增益
        kobj=1.0,  # (float) 关键点对象损失增益
        label_smoothing=0.0,  # (float) 标签平滑(分数)
        nbs=64,  # (int) 名义批量大小
        hsv_h=0.015,  # (float) 图像HSV-Hue增强(分数)
        hsv_s=0.7,  # (float) 图像HSV-Saturation增强(分数)
        hsv_v=0.4,  # (float) 图像HSV-Value增强(分数)
        degrees=0.0,  # (float) 图像旋转(+/- deg)
        translate=0.1,  # (float) 图像平移(+/- 分数)
        scale=0.5,  # (float) 图像缩放(+/- 增益)
        shear=0.0,  # (float) 图像剪切(+/- deg)
        perspective=0.0,  # (float) 图像透视(+/- 分数),范围为0-0.001
        flipud=0.0,  # (float) 图像上下翻转(概率)
        fliplr=0.5,  # (float) 图像左右翻转(概率)
        mosaic=1.0,  # (float) 图像马赛克(概率)
        mixup=0.0,  # (float) 图像混合(概率)
        copy_paste=0.0,  # (float) 分割复制-粘贴(概率)
    )



  • Val.py代码如下所示
from ultralytics import YOLO

if __name__ == '__main__':
    # 加载模型
    model = YOLO('runs/train/exp31/weights/best.pt')
    # 验证模型
    metrics=model.val(
        val=True,  # (bool) 在训练期间进行验证/测试
        data=r'data5/data.yaml',
        split='val',  # (str) 用于验证的数据集拆分,例如'val'、'test'或'train'
        batch=1,  # (int) 每批的图像数量(-1 为自动批处理)
        imgsz=640,  # 输入图像的大小,可以是整数或w,h
        device='',  # 运行的设备,例如 cuda device=0 或 device=0,1,2,3 或 device=cpu
        workers=8,  # 数据加载的工作线程数(每个DDP进程)
        save_json=False,  # 保存结果到JSON文件
        save_hybrid=False,  # 保存标签的混合版本(标签 + 额外的预测)
        conf=0.001,  # 检测的目标置信度阈值(默认为0.25用于预测,0.001用于验证)
        iou=0.6,  # 非极大值抑制 (NMS) 的交并比 (IoU) 阈值
        project='runs/val',  # 项目名称(可选)
        name='exp',  # 实验名称,结果保存在'project/name'目录下(可选)
        max_det=300,  # 每张图像的最大检测数
        half=False,  # 使用半精度 (FP16)
        dnn=False,  # 使用OpenCV DNN进行ONNX推断
        plots=True,  # 在训练/验证期间保存图像
    )

    print(f"mAP50-95: {metrics.box.map}") # map50-95
    print(f"mAP50: {metrics.box.map50}")  # map50
    print(f"mAP75: {metrics.box.map75}")  # map75
    speed_metrics = metrics.speed
    total_time = sum(speed_metrics.values())
    fps = 1000 / total_time
    print(f"FPS: {fps}") # FPS


  • Detect.py代码如下所示
from ultralytics import YOLO

if __name__ == '__main__':
    # 加载模型
    model = YOLO(r'best.pt')  # YOLOv8n模型
    model.predict(
        source=r'ultralytics/assets/bus.jpg',
        save=True,  # 保存预测结果
        imgsz=640,  # 输入图像的大小,可以是整数或w,h
        conf=0.25,  # 用于检测的目标置信度阈值(默认为0.25,用于预测,0.001用于验证)
        iou=0.45,  # 非极大值抑制 (NMS) 的交并比 (IoU) 阈值
        show=False,  # 如果可能的话,显示结果
        project='runs/predict',  # 项目名称(可选)
        name='exp',  # 实验名称,结果保存在'project/name'目录下(可选)
        save_txt=False,  # 保存结果为 .txt 文件
        save_conf=True,  # 保存结果和置信度分数
        save_crop=False,  # 保存裁剪后的图像和结果
        show_labels=True,  # 在图中显示目标标签
        show_conf=True,  # 在图中显示目标置信度分数
        vid_stride=1,  # 视频帧率步长
        line_width=3,  # 边界框线条粗细(像素)
        visualize=False,  # 可视化模型特征
        augment=False,  # 对预测源应用图像增强
        agnostic_nms=False,  # 类别无关的NMS
        retina_masks=False,  # 使用高分辨率的分割掩码
        boxes=True,  # 在分割预测中显示边界框
    )



Ok 将上述代码复制粘贴到相应文件,训练的模型准备就完成了,接下来导入自己的数据集,进行训练

二、导入数据集

想必大家能看到这里,一定都对YOLO系列有了一定了解,那么数据集的结构大家应该也都清楚,制作自己的数据集对大家来说也不是什么难事,但我这里想给大家提供一个新的获取数据集的渠道,那就是Roboflow数据集网站,官方网址为https://universe.roboflow.com/点击进去之后可以搜索自己想要的数据集例如我这里搜索了hand
在这里插入图片描述
搜索后选择适合自己的数据集按照如下顺序下载数据集,当然这个网站功能强大,感兴趣的可以自己先摸索一下,后续我将出一期更详细的利用这个网站的教程
在这里插入图片描述
这样数据集也就准备好了,解压下载好的数据集压缩包,他的结构如下所示,按照你在Roboflow网站的划分数据集操作自动分配好了文件夹这里你只需要对应好data.yaml文件中的相应数据集图片地址就好了那么接下来就可以使用YOLO11的yaml文件进行训练了

在这里插入图片描述
同时按照自己的数据集所在位置配置好data.yaml文件

在这里插入图片描述

三、训练自己的数据集

在刚才已经编辑好的train.py文件中添加自己的训练模型以及自己的数据集位置在这里插入图片描述
配置好了之后就可以开始训练了,训练成功结果如下:
在这里插入图片描述

四、验证数据集

将训练好的权重路径放入到图片中所示的位置
在这里插入图片描述

五、测试数据集

与验证数据集步骤类似如下图所示:
在这里插入图片描述

OK 以上就是如何使用YOLO11开始训练自己的数据集的全过程了,大家赶紧动手实践起来吧接下来将持续更新相关改进,尽情期待!

在这里插入图片描述

### YOLO v11 `train.py` 使用说明 YOLO v11 是由 Ultralytics 开发的一代目标检测框架,其训练过程可以通过调用 `train.py` 脚本来完成。以下是关于如何配置和运行该脚本的详细信息。 #### 训练前准备 在执行 `train.py` 前,需确保已完成以下准备工作: - **创建 Conda 虚拟环境并激活**:建议为项目单独设置虚拟环境以避免依赖冲突[^2]。 - **安装 GPU 版 PyTorch**:如果硬件支持 CUDA,则应优先选择 GPU 加速版本。 - **克隆 Ultralytics 仓库**:通过 Git 下载官方代码库[^4]。 - **下载训练权重**:可选地加载预训练模型作为初始权重[^3]。 - **获取数据集及其配置文件**:例如 COCO 数据集以及对应的 YAML 配置文件。 #### 运行命令示例 假设已准备好上述条件,可以按照如下方式启动训练: ```bash python train.py --img 640 --batch 16 --epochs 50 --data coco.yaml --cfg yolov11.yaml --weights yolov11.pt ``` | 参数 | 描述 | |--------------|----------------------------------------------------------------------------------------| | `--img` | 输入图像尺寸,默认为 640x640 的正方形裁剪[^1]。 | | `--batch` | 批量大小,取决于显存容量调整合适数值。 | | `--epochs` | 总共训练轮次数量,依据具体需求设定合理范围。 | | `--data` | 数据集描述路径,通常是一个 `.yaml` 文件指定了类别数、训练验证集合位置等内容。 | | `--cfg` | 模型架构定义文件地址,用于指定网络层设计细节。 | | `--weights` | 初始化权重来源,可以选择官方提供或者自定义生成的 checkpoint。 | 以上参数均可以根据实际场景灵活定制。 #### 自定义数据集注意事项 当处理非标准数据源时(比如医疗影像),需要额外注意以下几个方面: - 图片标注格式转换成 YOLO 支持的形式; - 更新对应的数据清单 TXT 文件列表; - 修改 YAML 中有关类别的字段值匹配实际情况; #### 官方文档推荐学习资源 对于更深入的理解与实践指导,强烈建议访问官方 GitHub 页面查阅完整的 API 参考手册 或者参考第三方博客总结的经验分享[^5]。 ---
评论 24
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值