YOLOv5(ultralytics) 训练自己的数据集,VOC2007为例

本文详细介绍YOLOv5在自定义数据集上的训练流程,包括数据集准备、模型训练与测试、模型推理等关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

官方教程:

https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data

VOC格式数据

1.在yolov5目录下创建VOC2007文件夹,有
在这里插入图片描述

VOC2007
	…Annotations # 存放图片对应的xml文件
	…JPEGImages # 存放图片
	…ImageSets/Main #之后会在Main文件夹内自动生成train.txt,val.txt,test.txt和trainval.txt四个文件,存放训练集、验证集、测试集图片的名字(无后缀.jpg)

注意:建议将JPEGImages名字改为images,因为我后面训练报错了,不改也行,可以改一下代码即可。

生成train.txt,val.txt,test.txt和trainval.txt四个文件:
在VOC2007目录下创建split_train_val.py文件:

# coding:utf-8

import os
import random
import argparse

parser = argparse.ArgumentParser()
#xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='Annotations', type=str, help='input xml label path')
#数据集的划分,地址选择自己数据下的ImageSets/Main
parser.add_argument('--txt_path', default='ImageSets/Main', type=str, help='output txt label path')
opt = parser.parse_args()

trainval_percent = 1.0
train_percent = 0.9
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
    os.makedirs(txtsavepath)

num = len(total_xml)
list_index = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list_index, tv)
train = random.sample(trainval, tr)

file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')

for i in list_index:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        file_trainval.write(name)
        if i in train:
            file_train.write(name)
        else:
            file_val.write(name)
    else:
        file_test.write(name)

file_trainval.close()
file_train.close()
file_val.close()
file_test.close()

在这里插入图片描述
2、准备labels数据,把数据集格式转换成yolo_txt格式,即将每个xml标注提取bbox信息为txt格式(这种数据集格式成为yolo_txt格式),每个图像对应一个txt文件,文件每一行为一个目标的信息,包括类别、 xmin、 xmax、 ymin 、ymax。格式如下:
在这里插入图片描述
VOC2007目录下创建voc_label.py文件,将训练集、验证集、测试集生成label标签(训练中要用到),同时将数据集路径导入txt文件中,代码内容如下:

# -*- coding: utf-8 -*-
import xml.etree.ElementTree as ET
import os

sets = ['train', 'val', 'test']
# classes = ["a", "b"]   # 改成自己的类别
classes = ["aeroplane", 'bicycle', 'bird', 'boat', 'bottle', 'bus', 'car', 'cat', 'chair', 'cow', 'diningtable', 'dog',
           'horse', 'motorbike', 'person', 'pottedplant', 'sheep', 'sofa', 'train', 'tvmonitor']  # class names
abs_path = os.getcwd()


def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = (box[0] + box[1]) / 2.0 - 1
    y = (box[2] + box[3]) / 2.0 - 1
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return x, y, w, h


def convert_annotation(image_id):
    in_file = open(abs_path + '/Annotations/%s.xml' % (image_id), encoding='UTF-8')
    out_file = open(abs_path + '/labels/%s.txt' % (image_id), 'w')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)
    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        # difficult = obj.find('Difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        b1, b2, b3, b4 = b
        # 标注越界修正
        if b2 > w:
            b2 = w
        if b4 > h:
            b4 = h
        b = (b1, b2, b3, b4)
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')


for image_set in sets:
    if not os.path.exists(abs_path + '/labels/'):
        os.makedirs(abs_path + '/labels/')

    image_ids = open(abs_path + '/ImageSets/Main/%s.txt' % (image_set)).read().strip().split()
    list_file = open(abs_path + '/%s.txt' % (image_set), 'w')
    for image_id in image_ids:
        list_file.write(abs_path + '/JPEGImages/%s.jpg\n' % (image_id))
        convert_annotation(image_id)
    list_file.close()

在这里插入图片描述
txt文件内容如下:
在这里插入图片描述

3、配置数据集文件
在yolov5目录下的data或VOC2007文件夹下,新建一个voc2007.yaml文件(我是在VOC2007下建立的,和原码区别一下,和coco128.yaml很相似),用来存放训练集和验证集的划分文件(train.txt和val.txt),目标的类别数目和具体类别列表,内容如下:
在这里插入图片描述
4、修改models目录下的yolov5s.yaml文件。这里可以根据自己选择的模型大小修改对应文件。(按自己需要改,追求轻量化,可以不要该)

nc: 20   #nc:类别数,你的类别有多少就填写多少。从1开始算起,不是0-14这样算。
#顺便一提, 下面两个参数可控制网络结构,不需修改,与模型大小已经对应。
depth_multiple: 0.33  # 控制模型的深度,假设yolov5l中有三个Bottleneck,那yolov5s中就只有一个Bottleneck。
width_multiple: 0.50  # 控制卷积核的个数设置为0.5,Focus就变成[32, 3],Conv就变成[64, 3, 2]。以此类推,卷积核的个数都变成了设置的一半。

训练

train.py进行修改,跑个50轮,batch_size看显存:
在这里插入图片描述

以上参数解释如下:
epochs:指的就是训练过程中整个数据集将被迭代多少次,显卡不行你就调小点。
batch-size:一次看完多少张图片才进行权重更新,梯度下降的mini-batch,显卡不行你就调小点。
cfg:存储模型结构的配置文件
data:存储训练、测试数据的文件
img-size:输入图片宽高,显卡不行你就调小点。
rect:进行矩形训练
resume:恢复最近保存的模型开始训练
nosave:仅保存最终checkpoint
notest:仅测试最后的epoch
evolve:进化超参数
bucket:gsutil bucket
cache-images:缓存图像以加快训练速度
weights:权重文件路径
name: 重命名results.txt to results_name.txt
device:cuda device, i.e. 0 or 0,1,2,3 or cpu
adam:使用adam优化
multi-scale:多尺度训练,img-size +/- 50%
single-cls:单类别的训练集

python train.py --img 640 --batch 16 --epoch 50 --data my_data/VOC2007/voc2007.yaml --cfg models/yolov5s.yaml --weights weights/yolov5s.pt --device '0'     # 0号GPU

报错:
AssertionError: train: No labels in 2007_train.cache. Can not train without labels
解决:
打开dataset.py文件
在这里插入图片描述
按照正常的VOC标注之后图片应该时保存在JPEGImages文件夹下的,但是根据源码则是读取的images里的图片,因此需要将images改为JPEGImages,这样就能正常读取了

训练过程可视化

利用tensorboard打开即可查看训练日志,我只跑了50轮,默认300,效果应该更好

tensorboard --logdir = uns/train/exp3

在这里插入图片描述在这里插入图片描述

测试

# 选用训练的权重
parser.add_argument('--weights', nargs='+', type=str, default='runs/train/exp/weights/best.pt', help='model.pt path(s)')
# source=0表示摄像头实时检测,也可输入视频路径
parser.add_argument('--source', type=str, default='inference/videos/jyz.mp4', help='source') 
# 网络输入图片大小
parser.add_argument('--view-img', action='store_true', help='display results')
# 是否将检测的框坐标以txt文件形式保存,默认False,当需要报存时,可修改路径default="inference/output"
parser.add_argument('--save-txt', action='store_true', help='save results to *.txt')
# 设置只保留某一部分类别,添加语句default=[0,1,2]等id。
parser.add_argument('--classes', nargs='+', type=int, help='filter by class: --class 0, or --class 0 2 3')
python val.py  --data my_data/VOC2007/voc2007.yaml --weights runs/train/exp3/weights/best.pt --augment

在这里插入图片描述

模型推理

模型在没有标注的数据集上进行推理,在detect.py文件中指定测试图片和测试模型的路径,其他参数(img_size、置信度object confidence threshold、IOU threshold for NMS)可自行修改,如下

python detect.py --source data/images --weights weights/yolov5s.pt

(该命令中save_txt选项用于生成结果的txt标注文件,不指定则只会生成结果图像)

每个txt会生成一行一个目标的信息,信息包括类别序号、xcenter ycenter w h,后面四个为bbox位置,均为归一化数值,如下图:
在这里插入图片描述
在进行模型推理时,无论是加载模型的速度还是对测试图片的推理速度,都能明显感觉到YOLOv5比YOLOv3速度快,尤其是加载模型的速度,因为同样的数据集训练出来的模型YOLOv5更加轻量级,模型大小减小为YOLOv3的将近四分之一。

至此YOLOv5训练自己的数据集整个过程:制作数据集----模型训练----模型测试----模型推理阶段已全部完成。

参考:
YOLOv5训练自己的数据集(超详细完整版)
YOLOV5测试及训练自己的数据集

yolov5训练自己数据集

<think>我们正在使用YOLOv5训练VOC2007数据集。根据引用内容,我们需要完成以下步骤:1.环境搭建:安装Python、相关库以及下载YOLOv5代码。2.准备数据集:将VOC2007数据集按照特定的目录结构放置。3.创建配置文件:创建一个YAML配置文件(如mydata.yaml)来指定数据集路径和类别信息。4.修改模型配置文件:根据需求选择YOLOv5的模型(如yolov5s.yaml)并可能调整。5.训练:运行训练命令,指定配置文件、模型等参数。具体步骤:1.环境搭建:-安装Python(建议3.7或3.8)-安装PyTorch(根据CUDA版本选择,若无GPU则安装CPU版本)-克隆YOLOv5仓库:`gitclonehttps://github.com/ultralytics/yolov5`-安装依赖:`cdyolov5`然后`pipinstall-rrequirements.txt`2.准备数据集:-在yolov5项目根目录下创建`datasets`目录,然后在其中创建`voc2007`目录。-将VOC2007数据集放入`datasets/voc2007`,通常VOC2007数据集包含以下子目录:-Annotations(存放XML标注文件)-JPEGImages(存放图像)-ImageSets(包含划分的训练集、验证集等,通常有Main子目录,里面是txt文件列出图像名)-我们需要将数据集划分为训练集、验证集和测试集。VOC2007已经划分好,我们可以直接使用。但YOLOv5要求的数据集结构略有不同,我们需要生成对应的txt文件,每行包含图像的绝对路径或相对路径。3.创建数据集配置文件(mydata.yaml):-在yolov5的`data`目录下(或者自己指定位置)创建mydata.yaml。-内容示:```yaml#VOC2007数据集配置文件train:./datasets/voc2007/train.txt#训练集图像路径列表val:./datasets/voc2007/val.txt#验证集图像路径列表test:./datasets/voc2007/test.txt#测试集图像路径列表(可选)#类别数nc:20#类别名称names:['aeroplane','bicycle','bird','boat','bottle','bus','car','cat','chair','cow','diningtable','dog','horse','motorbike','person','pottedplant','sheep','sofa','train','tvmonitor']```-注意:我们需要生成train.txt,val.txt等文件,其中每行是一个图像的路径(相对于yolov5根目录的路径或绝对路径)。可以使用脚本生成。4.生成路径列表文件(train.txt,val.txt):-通常,VOC2007的ImageSets/Main目录下已经有划分好的文件,如train.txt,val.txt等,但这些文件只包含图像名(不带扩展名)。我们需要将其转换为完整路径。-如,生成train.txt:```bash#假设在ImageSets/Main/train.txt中每行是图像名(如000001)#在voc2007目录下创建train.txt,内容为:#JPEGImages/000001.jpg#JPEGImages/000002.jpg#...#然后,我们可以在yolov5根目录下运行训练,配置文件中使用相对路径即可。#一个生成train.txt的简单脚本(在voc2007目录下执行):catImageSets/Main/train.txt|awk'{print"JPEGImages/"$1".jpg"}'>train.txt```-同样生成val.txt。5.选择模型配置文件:-YOLOv5提供了几个预定义的模型配置文件(在`models`目录下),如yolov5s.yaml,yolov5m.yaml等。我们可以选择其中一个,并修改其`nc`(类别数)为20(VOC2007有20类)。6.开始训练:-运行命令:```bashpythontrain.py--img640--batch16--epochs100--data./data/mydata.yaml--cfg./models/yolov5s.yaml--weightsyolov5s.pt```-参数说明:--img:图像大小--batch:批次大小(根据GPU显存调整)--epochs:训练轮数--data:数据集配置文件路径--cfg:模型配置文件路径--weights:预训练权重(这里使用yolov5s.pt,会自动下载)7.测试:-训练完成后,使用`detect.py`进行测试:```bashpythondetect.py--weightsruns/train/exp/weights/best.pt--sourcepath/to/test/images```注意:以上步骤是概括性的,具体操作时可能会遇到细节问题,需要根据实际情况调整。引用中提到的注意事项:-引用[1]:提到使用自带的voc.yaml或新建mydata.yaml。-引用[3]:提到将数据集放在`datasets/voc2007`下,并修改data.yaml和yolov8.yaml(这里我们使用YOLOv5,对应修改yolov5的模型配置文件)。-引用[4]:提到了环境搭建和下载模型文件。因此,我们按照上述步骤操作即可。相关问题:1.在训练YOLOv5时,如何调整超参数(如学习率)?2.如果我想使用预训练YOLOv5权重来微调VOC2007,应该如何操作?3.训练过程中常见的错误有哪些?如何解决?</think>### 使用YOLOv5训练VOC2007数据集的方法 以下是详细步骤,基于引用内容整理: #### 1. **环境准备** - 安装Python 3.7+ 和 PyTorch(建议≥1.8) - 克隆YOLOv5仓库并安装依赖: ```bash git clone https://github.com/ultralytics/yolov5 cd yolov5 pip install -r requirements.txt ``` #### 2. **数据集准备** - 创建目录结构: ```bash mkdir -p datasets/voc2007 ``` - 将VOC2007数据集放入`datasets/voc2007`目录,包含: - `Annotations/`(XML标注文件) - `JPEGImages/`(原始图像) - `ImageSets/`(划分好的训练/验证集列表) - **关键步骤**:确保数据集结构如下: ``` yolov5/ └── datasets/ └── voc2007/ ├── Annotations/ ├── JPEGImages/ └── ImageSets/ └── Main/ ├── train.txt ├── val.txt ``` #### 3. **配置文件修改** - **创建数据集配置文件**(如`mydata.yaml`): ```yaml # 路径: yolov5/data/mydata.yaml train: ./datasets/voc2007/ImageSets/Main/train.txt val: ./datasets/voc2007/ImageSets/Main/val.txt test: # 可选测试集路径 # 类别数 (VOC2007有20类) nc: 20 # 类别名称 names: ['aeroplane', 'bicycle', 'bird', 'boat', 'bottle', 'bus', 'car', 'cat', 'chair', 'cow', 'diningtable', 'dog', 'horse', 'motorbike', 'person', 'pottedplant', 'sheep', 'sofa', 'train', 'tvmonitor'] ``` - **修改模型配置**(可选): 选择模型文件(如`yolov5s.yaml`),确认`nc`值改为`20`[^1][^3]。 #### 4. **开始训练** ```bash python train.py \ --img 640 \ # 输入图像尺寸 --batch 16 \ # 批次大小(根据GPU调整) --epochs 100 \ # 训练轮数 --data data/mydata.yaml \ # 自定义数据集配置 --cfg models/yolov5s.yaml \ # 模型架构 --weights yolov5s.pt \ # 预训练权重 --name voc2007_exp # 实验名称 ``` #### 5. **验证与测试** - 训练完成后,使用验证集评估: ```bash python val.py \ --weights runs/train/voc2007_exp/weights/best.pt \ --data data/mydata.yaml \ --img 640 ``` - 测试单张图像: ```bash python detect.py \ --weights runs/train/voc2007_exp/weights/best.pt \ --source datasets/voc2007/JPEGImages/000001.jpg ``` #### 常见问题解决 1. **路径错误**:确保配置文件中路径正确(相对路径或绝对路径)[^1]。 2. **类别不匹配**:检查`mydata.yaml`中的`nc`和`names`是否与VOC2007一致[^3]。 3. **显存不足**:减小`--batch`大小或使用更小模型(如`yolov5s`)[^4]。 > 提示:训练过程日志和结果保存在`runs/train/`目录,可通过TensorBoard监控(`tensorboard --logdir runs/train`)[^2]。
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值