yolov5训练自己数据集过程记录

本文档详细介绍了在Windows10环境下,使用CUDA10.2和conda创建YOLOv5训练环境的过程,包括安装依赖、数据集准备、修改配置文件及训练网络。在训练过程中遇到的图片路径错误和`AttributeError`问题,提供了相应的解决办法。通过检查数据集路径、修改代码以及更新模型文件解决了训练中出现的常见问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.环境说明

​ 系统:windows10
​ CUDA: 10.2

2.环境创建

3. 数据集准备

1)准备好代码,按照上面链接下载解压后得到yolov5文件夹
在这里插入图片描述

2)将自己的图像数据images和标注数据labels两个文件夹放到yolov5/data文件夹下面

3)利用脚本将数据集分为训练集、验证集、测试集,代码如下。运行后yolov5/data文件夹下面生成3个txt文件,train.txt,test.txt,val.txt

 ```
 import os
 import random
 
 #各数据集比例
 trainval_percent = 0.1
 train_percent = 0.8
 test_percent = 0.1
 
 xmlfilepath = '../labels'  #标注文件的路径,若数据是txt标注文件,则改成txt的路径
 total_xml = os.listdir(xmlfilepath)
 num = len(total_xml)
 listtotal = range(num)
 tv = int(num * trainval_percent) #验证集
 tr = int(num * train_percent)    #训练集
 tt = num - tv - tr               #测试集
 test = random.sample(listtotal,tv)
 train = random.sample(listtotal,tr)
 val = random.sample(train,tv)
 
 #生成的labels目录txt放在data文件夹下
 fimgval = open('../val.txt','w')
 fimgtest = open('../test.txt','w')
 fimgtrain = open('../train.txt','w')
 
 #将图片路径写入每个txt
 for i in listtotal:
     name = './data/images/'+ total_xml[i][:-4] +'.jpg\n'
     if i in test:
         ftest.write(name)
     elif i in val:
         fval.write(name)
     else:
         ftrain.write(name)
 fval.close()
 ftrain.close()
 ftest.close()
 ```

 文件格式如下图:

在这里插入图片描述

4)修改coco.yaml文件,我的图像中检测行人一个类别,将文件内容修改如下:

 ```
 # Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
 path: ./data/  # dataset root dir
 train: train.txt  # train images (relative to 'path') 118287 images
 val: val.txt  # val images (relative to 'path') 5000 images
 test: test.txt  # 20288 of 40670 images, submit to https://competitions.codalab.org/competitions/20794
 
 # Classes
 nc: 1  # number of classes
 names: ['person']  # class names
 ```
  1. 网络训练

    在yolov5虚拟环境中运行下面命令即可开始训练,我只用10个epochs测试

    python train.py --data ./data/coco.yaml --cfg ./models/yolov5s.yaml --weights ./models/yolov5s.pt --epochs 10 --batch-size 8
    

    完成后显示下图:
    在这里插入图片描述

5. 问题总结

1)图片路径错误

该过程中最容易出现问题的就是图片路径不对,如下面的错误,找不到图像数据,或者找不到labels

  File "C:\Users\yolov5\utils\datasets.py", line 417, in __init__
    raise Exception(f'{prefix}Error loading data from {path}: {e}\nSee {HELP_URL}')
assert nf > 0 or not augment, f'{prefix}No labels in {cache_path}. Can not train without labels. See {HELP_URL}'
AssertionError: train: No labels in C:\Users\yolov5\data\train.cache. Can not train without labels. See https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data

这两种错误都需要检查一下生成的train.txt,test.txt,val.txt是否在data文件夹下面,因为代码中是直接在train.txt目录下找images文件夹,然后将images替换为labels即为labels的路径,所以这样配置最方便查找。

[Errno 2] No such file or directory: '..\\images\\1 (40).jpg'

这里写的相对路径,因此在yolov5根目录下运行train.py文件时候找不到文件,修改路径即可
2)AttributeError: ‘Upsample’ object has no attribute ‘recompute_scale_factor’

报错中会提示\envs\虚拟环境名称\lib\site-packages\torch\nn\modules\upsampling.py", line 154, in forward
recompute_scale_factor=self.recompute_scale_factor)
打开这个文件,定位到代码行,将

    def forward(self, input: Tensor) -> Tensor:
        return F.interpolate(input, self.size, self.scale_factor, self.mode, self.align_corners,
                              recompute_scale_factor=self.recompute_scale_factor)

修改为

    def forward(self, input: Tensor) -> Tensor:
        return F.interpolate(input, self.size, self.scale_factor, self.mode, self.align_corners,
                                   #recompute_scale_factor=self.recompute_scale_factor
                            )
### 配置和使用YOLOv5在VSCode中训练自定义数据集 #### 一、环境搭建 为了能够在VSCode环境中顺利运行YOLOv5模型并完成自定义数据集训练,需先构建合适的开发环境。 安装Python虚拟环境以及必要的依赖库是首要任务。通过命令行工具创建一个新的虚拟环境,并激活该环境: ```bash python3 -m venv yolov5-env source yolov5-env/bin/activate # Linux/MacOS yolov5-env\Scripts\activate # Windows ``` 随后,在已激活的虚拟环境下安装PyTorch和其他所需的包。可以利用`requirements.txt`文件简化这一过程[^1]。 #### 二、项目设置 克隆官方GitHub仓库至本地计算机作为工作目录的基础框架。这一步骤提供了完整的源码结构和支持脚本,极大地方便后续操作。 ```bash git clone https://github.com/ultralytics/yolov5.git cd yolov5 pip install -r requirements.txt ``` 对于特定版本的需求,可以通过指定分支或标签的方式获取相应代码版本。 #### 三、数据预处理 按照YOLO格式整理好自己的数据集至关重要。通常情况下,图像文件应放置于独立文件夹内;而对应的标注信息则保存成`.txt`文本文件,每条记录描述单个目标的位置坐标[x_center, y_center, width, height]相对于图片尺寸的比例值[^2]。 此外,还需编写一个配置文件(如`custom_data.yaml`),用于告知YOLOv5有关数据路径及其他必要参数的信息。例如: ```yaml train: path/to/train/images/ val: path/to/validation/images/ nc: 80 names: ['object_1', 'object_2']... ``` 这里假设存在两个类别对象被标记为'object_1' 和 'object_2'。 #### 四、调整超参数与启动训练 修改默认配置以适应新的数据特性非常重要。特别是锚框(Anchor Boxes)的选择直接影响检测效果的好坏。幸运的是,YOLOv5具备自动优化锚框的功能。 最后,执行如下指令即可开始训练流程: ```bash python train.py --img 640 --batch 16 --epochs 50 --data custom_data.yaml --weights yolov5s.pt ``` 上述命令指定了输入图片大小(`--img`)、批次数量(`--batch`)、轮次次数(`--epochs`)、所使用的数据集配置(`--data`)及初始化权重(`--weights`)等选项。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CV温故知新

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值