Yolov10菜品的目标检测模型训练及推理(包括数据集、训练及推理源码)

本文摘要

本文主要展示使用已标注的2000+菜品餐盘目标,使用yolov10训练目标检测模型,并对结果进行评估及推理的过程。本文已制作好的yolov10的可关注我,想要获取数据集可点击 阅读原文,里面有源码及数据集下载方式

原文链接:源码及训练数据集下载(可一对一指导)

1. Yolov10

YOLOv10 是清华大学研究人员在 UltralyticsPython 清华大学的研究人员在 YOLOv10软件包的基础上,引入了一种新的实时目标检测方法,解决了YOLO 以前版本在后处理和模型架构方面的不足。通过消除非最大抑制(NMS)和优化各种模型组件,YOLOv10 在显著降低计算开销的同时实现了最先进的性能。并用大量实验证明,YOLOv10 在多个模型尺度上实现了卓越的精度-延迟权衡。

  • 无 NMS 设计:利用一致的双重分配来消除对 NMS 的需求,从而减少推理延迟。
  • 整体模型设计:从效率和准确性的角度全面优化各种组件,包括轻量级分类头、空间通道去耦向下采样和等级引导块设计。
  • 增强的模型功能:纳入大核卷积和部分自注意模块,在不增加大量计算成本的情况下提高性能。
    YOLOv10 有多种型号,可满足不同的应用需求:
YOLOv10-N:用于资源极其有限环境的纳米版本。
YOLOv10-S:兼顾速度和精度的小型版本。
YOLOv10-M:通用中型版本。
YOLOv10-B:平衡型,宽度增加,精度更高。
YOLOv10-L:大型版本,精度更高,但计算资源增加。
YOLOv10-X:超大型版本可实现最高精度和性能。

2. 数据集准备与标注

【菜品识别专栏】菜品目标检测数据集标注及处理(Yolov10)

3. 模型训练

3.1 下载源码及预训练模型文件

下载源码及预训练模型:https://github.com/THU-MIG/yolov10
在这里插入图片描述
在这里插入图片描述

3.2 创建虚拟环境,依赖安装

conda create -n yolov10 python=3.9
conda activate yolov10
 1.切换到yolov10源码根目录下,安装依赖
注意:会自动根据你是否有GPU自动选择pytorch版本进行按照,这里不需要自己去选择pytorch和cuda
pip install -r requirements.txt -i https://pypi.doubanio.com/simple
2.运行下面的命令,才可以在命令行使用yolo等命令
pip install -e .

python train.py

3.3 调用python train.py进行训练

data.yaml 内容如下:

train: /home/xzx/zll/202409zll/yolo_images/train
val: /home/xzx/zll/202409zll/yolo_images/val
test: /home/xzx/zll/202409zll/yolo_images/test

nc: 1
names: ["label"]

train.py

#coding:utf-8
from ultralytics import YOLOv10
# 模型配置文件
model_yaml_path = './ultralytics/cfg/models/v10/yolov10n.yaml'
# 数据集配置文件
data_yaml_path = '/home/xzx/zll/202409zll/yolo_images/data.yaml'
# 预训练模型
pre_model_name = './yolov10n.pt'

if __name__ == '__main__':
    # 加载预训练模型
    model = YOLOv10(model_yaml_path).load(pre_model_name)
    # 训练模型
    model.train(data=data_yaml_path, 
                epochs=100, 
                batch=4, 
                imgsz=640,
                name = 'train_v10',
                device='cpu')

训练过程如下图所示:
在这里插入图片描述
在这里插入图片描述

4. 训练结果评估

详细参见:【深度学习】深度学习模型训练结果分析及效果评估以及Yolo训练结果解释
在这里插入图片描述

4.1 混淆矩阵

在这里插入图片描述
混淆矩阵以矩阵形式将数据集中的记录按照真实的类别与分类模型预测的类别判断两个标准进行汇总。其中矩阵的行表示真实值,矩阵的列表示预测值。

  • y轴:行是预测类别
  • x轴:列是真实类别

4.2 查准率和召回率的调和平均数

在这里插入图片描述
F1曲线,被定义为查准率和召回率的调和平均数,常常将F1-score作为最终测评的方法。它是精确率和召回率的调和平均数,最大为1,其中1是最好,0是最差。
置信度阈值(该样本被判定为某一类的概率阈值)较低的时候,很多置信度低的样本被认为是真,召回率高,精确率低;

4.3 准确率和召回率

在这里插入图片描述
准确率precision和置信度confidence的关系图
当判定概率超过置信度阈值时,各个类别识别的准确率。当置信度越大时,类别检测越准确,但是这样就有可能漏掉一些判定概率较低的真实样本。
置信度阈值 - 召回率曲线图
召回率recall和置信度confidence之间的关系,recall(真实为positive的准确率),即正样本有多少被找出来了(召回了多少)

4.4 Result

在这里插入图片描述
损失函数是用来衡量模型预测值和真实值不一样的程度,极大程度上决定了模型的性能。

  • 定位损失box_loss:预测框与标定框之间的误差(GIoU),越小定位得越准
  • 置信度损失obj_loss:计算网络的置信度,越小判定为目标的能力越准
  • 分类损失cls_loss:计算锚框与对应的标定分类是否正确,越小分类得越准

5. 模型推理

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

利哥AI实例探险

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值