yolov8_seg分割模型训练自己数据集

该文介绍了如何使用Yolov8模型进行实例分割检测。首先,通过git克隆官方源码,然后进行数据预处理,包括将json标签转换为txt格式并按比例划分训练、验证和测试数据集。接着,配置my_seg.yaml文件以设定训练参数,并对yolov8-seg.yaml进行修改以适应自定义类别。最后,启动训练过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

基本思想:业务需求,需要实例分割检测案例,选定yolov8模型训练自己业务场景数据集。

一、拉取官方源码

git clone https://github.com/ultralytics/ultralytics

二、数据准备

数据及结构

对数据集进行转换和划分。注意:将图片和json文件放在不同的文件夹里。如下图所示,另外新建两个文件夹txt和split文件夹。

注意标签是: 类别 x坐标 y坐标 …(中间有空格,并且坐标除以了原图图片大小,归一化后的)这是实例分割的数据要求。

my_datasets
├── images    # 原始图片
├── json      # 对应json文件
├── split     # 划分后的数据集
│   ├── images
│   │   ├── test
│   │   ├── train
│   │   └── val
│   └── labels
│       ├── test
│       ├── train
│       └── val
└── txt    # 存放标签 (归一化后的值) 形式:ids x y x y ...

2.1 将json文件转换为txt格式

json2txt.py

# -*- coding: utf-8 -*-
import json
import os
import argparse
from tqdm import tqdm
 
 
def convert_label_json(json_dir, save_dir, classes):
    json_paths = os.listdir(json_dir)
    classes = classes.split(',')
 
    for json_path in tqdm(json_paths):
        # for json_path in json_paths:
        path = os.path.join(json_dir, json_path)
        with open(path, 'r') as load_f:
            json_dict = json.load(load_f)
        h, w = json_dict['imageHeight'], json_dict['imageWidth']
 
        # save txt path
        txt_path = os.path.join(save_dir, json_path.replace('json', 'txt'))
        txt_file = open(txt_path, 'w')
 
        for shape_dict in json_dict['shapes']:
            label = shape_dict['label']
            label_index = classes.index(label)
            points = shape_dict['points']
 
            points_nor_list = []
 
            for point in points:
                points_nor_list.append(point[0] / w)
                points_nor_list.append(point[1] / h)
 
            points_nor_list = list(map(lambda x: str(x), points_nor_list))
            points_nor_str = ' '.join(points_nor_list)
 
            label_str = str(label_index) + ' ' + points_nor_str + '\n'
            txt_file.writelines(label_str)
 
 
if __name__ == "__main__":
    """
    python json2txt_nomalize.py --json-dir my_datasets/color_rings/jsons --save-dir my_datasets/color_rings/txts --classes "cat,dogs"
    """
    parser = argparse.ArgumentParser(description='json convert to txt params')
    parser.add_argument('--json-dir', type=str,default='/home/ubuntu/ultralytics/data/json', help='json path dir')
    parser.add_argument('--save-dir', type=str,default='/home/ubuntu/ultralytics/data/txt' ,help='txt save dir')
    parser.add_argument('--classes', type=str, default='person,road,pallet',help='classes')
    args = parser.parse_args()
    json_dir = args.json_dir
    save_dir = args.save_dir
    classes = args.classes
    convert_label_json(json_dir, save_dir, classes)

2.2 划分数据集(train,test,val)

# 将图片和标注数据按比例切分为 训练集和测试集
import shutil
import random
import os
import argparse
 
 
# 检查文件夹是否存在
def mkdir(path):
    if not os.path.exists(path):
        os.makedirs(path)
 
def main(image_dir, txt_dir, save_dir):
    # 创建文件夹
    mkdir(save_dir)
    images_dir = os.path.join(save_dir, 'images')
    labels_dir = os.path.join(save_dir, 'labels')
 
    img_train_path = os.path.join(images_dir, 'train')
    img_test_path = os.path.join(images_dir, 'test')
    img_val_path = os.path.join(images_dir, 'val')
 
    label_train_path = os.path.join(labels_dir, 'train')
    label_test_path = os.path.join(labels_dir, 'test')
    label_val_path = os.path.join(labels_dir, 'val')
 
    mkdir(images_dir);
    mkdir(labels_dir);
    mkdir(img_train_path);
    mkdir(img_test_path);
    mkdir(img_val_path);
    mkdir(label_train_path);
    mkdir(label_test_path);
    mkdir(label_val_path);
 
    # 数据集划分比例,训练集75%,验证集15%,测试集15%,按需修改
    train_percent = 0.9
    val_percent = 0.1
    test_percent = 0
 
    total_txt = os.listdir(txt_dir)
    num_txt = len(total_txt)
    list_all_txt = range(num_txt)  # 范围 range(0, num)
 
    num_train = int(num_txt * train_percent)
    num_val = int(num_txt * val_percent)
    num_test = num_txt - num_train - num_val
 
    train = random.sample(list_all_txt, num_train)
    # 在全部数据集中取出train
    val_test = [i for i in list_all_txt if not i in train]
    # 再从val_test取出num_val个元素,val_test剩下的元素就是test
    val = random.sample(val_test, num_val)
 
    print("训练集数目:{}, 验证集数目:{},测试集数目:{}".format(len(train), len(val), len(val_test) - len(val)))
    for i in list_all_txt:
        name = total_txt[i][:-4]
 
        srcImage = os.path.join(image_dir, name + '.jpg')
        srcLabel = os.path.join(txt_dir, name + '.txt')
 
        if i in train:
            dst_train_Image = os.path.join(img_train_path, name + '.jpg')
            dst_train_Label = os.path.join(label_train_path, name + '.txt')
            shutil.copyfile(srcImage, dst_train_Image)
            shutil.copyfile(srcLabel, dst_train_Label)
        elif i in val:
            dst_val_Image = os.path.join(img_val_path, name + '.jpg')
            dst_val_Label = os.path.join(label_val_path, name + '.txt')
            shutil.copyfile(srcImage, dst_val_Image)
            shutil.copyfile(srcLabel, dst_val_Label)
        else:
            dst_test_Image = os.path.join(img_test_path, name + '.jpg')
            dst_test_Label = os.path.join(label_test_path, name + '.txt')
            shutil.copyfile(srcImage, dst_test_Image)
            shutil.copyfile(srcLabel, dst_test_Label)
 
 
if __name__ == '__main__':
    """
    python split_datasets.py --image-dir my_datasets/color_rings/imgs --txt-dir my_datasets/color_rings/txts --save-dir my_datasets/color_rings/train_data
    """
    parser = argparse.ArgumentParser(description='split datasets to train,val,test params')
    parser.add_argument('--image-dir', type=str,default='/home/ubuntu/ultralytics/data/images', help='image path dir')
    parser.add_argument('--txt-dir', type=str,default='/home/ubuntu/ultralytics/data/txt' , help='txt path dir')
    parser.add_argument('--save-dir', default='/home/ubuntu/ultralytics/data/split', type=str, help='save dir')
    args = parser.parse_args()
    image_dir = args.image_dir
    txt_dir = args.txt_dir
    save_dir = args.save_dir
 
    main(image_dir, txt_dir, save_dir)

三、训练模型

3.1 需要新建一个my_seg.yaml文件

ubuntu@ubuntu:~$ cd ultralytics/ultralytics/datasets/
path: /home/ubuntu/ultralytics/data/split
train: /home/ubuntu/ultralytics/data/split/images/train  # train images (relative to 'path') 128 images
val: /home/ubuntu/ultralytics/data/split/images/val  # val images (relative to 'path') 128 images
test: # test images (optional)
 
# Classes
names:
  0: person
  1: road
  2: pallet

3.2 训练参数设置

3.2.1 修改yolov8-seg.yaml文件

vim ./ultralytics/models/v8/seg/yolov8-seg.yaml
nc: 3 #自己训练的内别总个数

3.2.2 修改defaul.yaml

# Ultralytics YOLO 🚀, AGPL-3.0 license
# Default training settings and hyperparameters for medium-augmentation COCO training

task: segment  # YOLO task, i.e. detect, segment, classify, pose
mode: train  # YOLO mode, i.e. train, val, predict, export, track, benchmark

# Train settings -------------------------------------------------------------------------------------------------------
model: /home/ubuntu/ultralytics/ultralytics/models/v8/yolov8-seg.yaml # path to model file, i.e. yolov8n.pt, yolov8n.yaml
data: /home/ubuntu/ultralytics/ultralytics/datasets/my_seg.yaml # path to data file, i.e. coco128.yaml
epochs: 100  # number of epochs to train for
patience: 50  # epochs to wait for no observable improvement for early stopping of training
batch: 8  # number of images per batch (-1 for AutoBatch)
imgsz: 640  # size of input images as integer or w,h

...

3.3.3 开始训练

ubuntu@ubuntu:~/ultralytics$ python ultralytics/yolo/v8/segment/train.py 

YOLOv8YOLO(You Only Look Once)系列目标检测模型的最新版本,它不仅支持传统的目标检测任务,还扩展了对图像分割的支持,尤其是实例分割(Instance Segmentation)。通过深度卷积神经网络,YOLOv8 能够在图像中同时检测物体边界框并生成每个实例的像素级分割掩码,从而实现高效的语义理解[^2]。 ### 使用 YOLOv8 进行图像分割 YOLOv8分割功能主要基于其架构中的解码器部分,该部分负责从检测头输出的特征图中恢复空间信息,以生成高质量的分割掩码。以下是一个基本的流程,用于使用 YOLOv8 进行图像分割: #### 1. 安装依赖 首先,确保安装了 `ultralytics` 库,这是 YOLOv8 的官方实现: ```bash pip install ultralytics ``` #### 2. 加载预训练模型 可以加载一个预训练YOLOv8 分割模型,例如 `yolov8s-seg.pt`: ```python from ultralytics import YOLO # 加载预训练YOLOv8 分割模型 model = YOLO('yolov8s-seg.pt') ``` #### 3. 推理与预测 使用模型对图像进行推理,并获取分割结果: ```python # 对输入图像进行推理 results = model('path/to/image.jpg') # 显示结果 results.show() ``` #### 4. 获取分割掩码 可以通过访问 `results` 对象来获取每个检测对象的分割掩码: ```python for result in results: masks = result.masks # 获取分割掩码 boxes = result.boxes # 获取边界框 print(masks, boxes) ``` #### 5. 可视化与保存结果 如果需要将分割结果保存为文件,可以使用以下代码: ```python results.save('path/to/output_directory') # 保存结果到指定目录 ``` ### 自定义数据集训练 若希望在自定义数据集训练 YOLOv8分割模型,可以按照以下步骤操作: #### 1. 数据准备 确保数据集符合 COCO 格式或 YOLO 标注格式,其中每个图像对应一个 `.txt` 文件,包含类别标签和边界框坐标,以及对应的分割掩码。 #### 2. 配置文件修改 编辑 `data.yaml` 文件,指定训练集、验证集路径及类别数量: ```yaml train: path/to/train/images val: path/to/val/images nc: 80 # 类别数量 names: ['class1', 'class2', ...] # 类别名称列表 ``` #### 3. 训练模型 使用以下命令启动训练过程: ```bash yolo train data=data.yaml model=yolov8s-seg.yaml epochs=100 imgsz=640 ``` #### 4. 模型评估 训练完成后,可以使用验证集评估模型性能: ```bash yolo val data=data.yaml model=runs/segment/train/weights/best.pt ``` ### 示例代码:YOLOv8 分割模型训练与推理 下面是一个完整的示例代码,展示了如何使用 YOLOv8 进行图像分割训练和推理: ```python from ultralytics import YOLO # 加载预训练模型 model = YOLO('yolov8s-seg.pt') # 开始训练 model.train(data='data.yaml', epochs=100, imgsz=640) # 验证模型 metrics = model.val() # 对新图像进行推理 results = model('path/to/test_image.jpg') results.show() ``` ### 总结 YOLOv8 提供了一种高效且灵活的方式来执行图像分割任务,特别是在处理大规模图像数据集时表现出色。无论是使用预训练模型进行快速推理,还是在自定义数据集上进行训练YOLOv8 都提供了强大的工具和接口,简化了开发流程。对于初学者而言,建议参考官方文档和社区提供的教程,以便更轻松地上手[^1]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值