yolov8训练自己的数据集与转成onnx利用opencv进行调用

本文详细介绍了如何使用Yolov8进行数据转换(将xml转为txt),配置文件的修改以及模型的训练过程。作者提供了Python代码示例,包括从头训练模型和导入预训练模型。后续内容将涉及模型导出为ONNX格式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


前言

首先需要创建适合yolov8的数据模式,需要将xml文件转成txt文件。修改yolov8的配置文件实现模型的训练


提示:以下是本篇文章正文内容,下面案例可供参考

、使用步骤

1.xml文件转成txt文件

代码如下(示例):

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join

classes = [自己的数据集标签]

def convert(size, box):
    dw = 1./(size[0])
    dh = 1./(size[1])
    x = (box[0] + box[1])/2.0 - 1
    y = (box[2] + box[3])/2.0 - 1
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x*dw
    w = w*dw
    y = y*dh
    h = h*dh
    if x >= 1:
        x = 0.99
    if y >= 1:
        y = 0.99
    if w>=1:
        w=0.99
    if h>=1:
        h=0.99
    return (x,y,w,h)

def convert_annotation(rootpath,xmlname):
    xmlpath = rootpath + '/xmls'
    xmlfile = os.path.join(xmlpath,xmlname)
    with open(xmlfile, "r", encoding='UTF-8') as in_file:
      txtname = xmlname[:-4]+'.txt'
      print(txtname)
      txtpath = rootpath + '/worktxt'
      if not os.path.exists(txtpath):
        os.makedirs(txtpath)
      txtfile = os.path.join(txtpath,txtname)
      with open(txtfile, "w+" ,encoding='UTF-8') as out_file:
        tree=ET.parse(in_file)
        root = tree.getroot()
        size = root.find('size')
        w = int(size.find('width').text)
        h = int(size.find('height').text)
        out_file.truncate()
        for obj in root.iter('object'):
            #difficult = obj.find('difficult').text
            cls = obj.find('name').text
            #if cls not in classes or int(difficult)==1:
                #continue
            if cls not in classes:
                print("image dont excistence")
                continue
            cls_id = classes.index(cls)
            xmlbox = obj.find('bndbox')
            b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))
            bb = convert((w,h), b)
            out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')


if __name__ == "__main__":
    rootpath='自己数据集路径'
    xmlpath=rootpath+'/xmls'
    list=os.listdir(xmlpath)
    for i in range(0,len(list)) :
        path = os.path.join(xmlpath,list[i])
        if ('.xml' in path)or('.XML' in path):
            convert_annotation(rootpath,list[i])
            print('done', i)
        else:
            print('not xml file',i)

2.加入数据中

如下(示例):

 

2.加入数据中

 1:先修改ultralytics/yolo/cfg/default.yaml中的default.yaml文件,如果是任务是目标检测则tast:改成detect 。如是语义分割则改成segment

2:如果是训练模式,mode改成train模式。

3:model改成初始模型的绝对路径,

4:data改成自己创建的数据集。这样设置完成后就可以了。接下来需要运行训练脚本


 3:模型训练

1:找到项目文件下的train.py文件 路径为:ultralytics/yolo/v8/detect/train.py。

2:直接运行train文件既可实现训练自己的数据集。

如果想自己写训练脚本,如下脚本为训练脚本

from ultralytics import YOLO
import torch
if __name__ == '__main__':
    # 加载模型
    model = YOLO("C:/Users/12057/Desktop/yolov8/ultralytics/ultralytics/models/v8/yolov8.yaml")  # 从头开始构建新模型
    # model = YOLO("yolov8s.pt")  # 加载预训练模型(推荐用于训练)

    # Use the model

    results = model.train(data="C:/Users/12057/Desktop/yolov8/ultralytics/ultralytics/datasets/mydata2.yaml", epochs=300, batch=16, workers=8, close_mosaic=0, name='cfg')  # 训练模型
    # results = model.val()  # 在验证集上评估模型性能
    # results = model("https://ultralytics.com/images/bus.jpg")  # 预测图像
    # success = model.export(format="onnx")  # 将模型导出为 ONNX 格式

4:训练过程

总结

以上就是今天要讲的内容,本文仅仅简单介绍了利用yolov8训练自己的数据集,而后期换成onnx格式,将在下期进行讲解。

<think>嗯,用户想要找YOLOv11在C#中使用ONNX的实现代码。首先,我需要确认一下YOLOv11是否真的存在。因为YOLO系列模型通常到YOLOv5之后,Ultralytics又推出了YOLOv8,而YOLOv6和YOLOv7是其他团队开发的。YOLOv11这个名字可能是一个笔误或者误解,用户可能指的是YOLOv8或者某个其他版本。比如,有时候版本号可能会被混淆,比如YOLOv10最近也有发布,但YOLOv11可能还不存在。 接下来,我应该检查是否有官方或可靠的第三方实现了YOLOv11的ONNX模型,并且是否有C#的部署示例。通常,Ultralytics的YOLO模型会有PyTorch版本,可以导出为ONNX,然后在C#中使用诸如Microsoft.ML.OnnxRuntime这样的库进行推理。但YOLOv11可能不存在,所以需要引导用户确认模型名称的正确性。 然后,用户提到的参考链接是关于YOLOv8的C#部署,可能用户是看到这个文档,但误写成了YOLOv11。需要指出这一点,并建议用户查看YOLOv8YOLOv10的相关资料。同时,提供通用的步骤,帮助用户即使模型版本有误,也能按照正确的方法在C#中部署ONNX模型。 另外,需要确保提供的步骤符合ONNX Runtime的最佳实践,包括加载模型、预处理图像、运行推理和后处理结果。代码示例需要简洁明了,并且指出用户可能需要根据实际模型调整输入输出的名称和维度。 最后,生成的相关问题应该涵盖用户可能的后续疑问,比如性能优化、模型导出和其他框架的比较,这样能帮助用户更全面地解决问题。</think>关于YOLOv11的C# ONNX实现,目前存在以下关键信息需要说明: 1. **版本确认**:截至2024年7月,官方YOLO系列最新版本为YOLOv10/YOLOv8YOLOv11尚未在官方渠道发布[^1]。当前GitHub上的YOLOv8 ONNX部署方案可提供重要参考: ```csharp // 使用ONNX Runtime的通用推理流程 var session = new InferenceSession("yolo_model.onnx"); var inputs = new List<NamedOnnxValue> { NamedOnnxValue.CreateFromTensor("images", processed_image) }; using var outputs = session.Run(inputs); var results = outputs.First().AsTensor<float>(); ``` 2. **实现步骤**: - 模型导出:使用PyTorch训练后通过`torch.onnx.export()`生成ONNX文件 - 输入预处理:需将图像缩放至$640\times640$,进行归一化(像素值/255) - 输出解析:解析$[1,84,8400]$格式的张量,包含边界框坐标和类别概率 3. **关键代码模块**: ```csharp // 图像预处理示例 var tensor = new DenseTensor<float>(new[] { 1, 3, 640, 640 }); var mean = new[] { 0.485f, 0.456f, 0.406f }; var std = new[] { 0.229f, 0.224f, 0.225f }; for (int y = 0; y < height; y++) { for (int x = 0; x < width; x++) { tensor[0, 0, y, x] = (r / 255f - mean[0]) / std[0]; tensor[0, 1, y, x] = (g / 255f - mean[1]) / std[1]; tensor[0, 2, y, x] = (b / 255f - mean[2]) / std[2]; } } ``` 建议暂时参考YOLOv8的成熟实现方案,待YOLOv11正式发布后更新模型文件即可复用现有代码框架[^1]。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值