maskrcnn :labelme数据集转coco数据集

本文介绍了一种将Labelme标注数据转换为COCO格式的方法,通过Python脚本实现,适用于图像分割任务的数据准备。转换过程包括读取Labelme的JSON文件,解析标注信息,并将其转化为COCO标准格式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

准备的labelme数据格式如下:
在这里插入图片描述
代码如下,该代码段同样放在根目录下。

#!/usr/bin/env python
 
import argparse
import collections
import datetime
import glob
import json
import os
import os.path as osp
import sys
 
import numpy as np
import PIL.Image
 
import labelme
 
try:
    import pycocotools.mask
except ImportError:
    print('Please install pycocotools:\n\n    pip install pycocotools\n')
    sys.exit(1)
 
 
def main():
    parser = argparse.ArgumentParser(
        formatter_class=argparse.ArgumentDefaultsHelpFormatter
    )
    parser.add_argument('input_dir', help='input annotated directory')
    parser.add_argument('output_dir', help='output dataset directory')
    parser.add_argument('--labels', help='labels file', required=True)
    args = parser.parse_args()
 
    if osp.exists(args.output_dir):
        print('Output directory already exists:', args.output_dir)
        sys.exit(1)
    os.makedirs(args.output_dir)
    os.makedirs(osp.join(args.output_dir, 'JPEGImages'))
    print('Creating dataset:', args.output_dir)
 
    now = datetime.datetime.now()
 
    data = dict(
        info=dict(
            description=None,
            url=None,
            version=None,
            year=now.year,
            contributor=None,
            date_created=now.strftime('%Y-%m-%d %H:%M:%S.%f'),
        ),
        licenses=[dict(
            url=None,
            id=0,
            name=None,
        )],
        images=[
            # license, url, file_name, height, width, date_captured, id
        ],
        type='instances',
        annotations=[
            # segmentation, area, iscrowd, image_id, bbox, category_id, id
        ],
        categories=[
            # supercategory, id, name
        ],
    )
 
    class_name_to_id = {}
    for i, line in enumerate(open(args.labels).readlines()):
        class_id = i - 1  # starts with -1
        class_name = line.strip()
        if class_id == -1:
            assert class_name == '__ignore__'
            continue
        class_name_to_id[class_name] = class_id
        data['categories'].append(dict(
            supercategory=None,
            id=class_id,
            name=class_name,
        ))
 
    out_ann_file = osp.join(args.output_dir, 'annotations.json')
    label_files = glob.glob(osp.join(args.input_dir, '*.json'))
    for image_id, label_file in enumerate(label_files):
        print('Generating dataset from:', label_file)
        with open(label_file) as f:
            label_data = json.load(f)
 
        base = osp.splitext(osp.basename(label_file))[0]
        out_img_file = osp.join(
            args.output_dir, 'JPEGImages', base + '.jpg'
        )
 
        img_file = osp.join(
            osp.dirname(label_file), label_data['imagePath']
        )
        img = np.asarray(PIL.Image.open(img_file))
        PIL.Image.fromarray(img).save(out_img_file)
        data['images'].append(dict(
            license=0,
            url=None,
            file_name=osp.relpath(out_img_file, osp.dirname(out_ann_file)),
            height=img.shape[0],
            width=img.shape[1],
            date_captured=None,
            id=image_id,
        ))
 
        masks = {}                                     # for area
        segmentations = collections.defaultdict(list)  # for segmentation
        for shape in label_data['shapes']:
            points = shape['points']
            label = shape['label']
            shape_type = shape.get('shape_type', None)
            mask = labelme.utils.shape_to_mask(
                img.shape[:2], points, shape_type
            )
 
            if label in masks:
                masks[label] = masks[label] | mask
            else:
                masks[label] = mask
 
            points = np.asarray(points).flatten().tolist()
            segmentations[label].append(points)
 
        for label, mask in masks.items():
            cls_name = label.split('-')[0]
            if cls_name not in class_name_to_id:
                continue
            cls_id = class_name_to_id[cls_name]
 
            mask = np.asfortranarray(mask.astype(np.uint8))
            mask = pycocotools.mask.encode(mask)
            area = float(pycocotools.mask.area(mask))
            bbox = pycocotools.mask.toBbox(mask).flatten().tolist()
 
            data['annotations'].append(dict(
                id=len(data['annotations']),
                image_id=image_id,
                category_id=cls_id,
                segmentation=segmentations[label],
                area=area,
                bbox=bbox,
                iscrowd=0,
            ))
 
    with open(out_ann_file, 'w') as f:
        json.dump(data, f)
 
 
if __name__ == '__main__':
    main()

执行结果如下,生成了两个文件夹,注释文件夹,一个图片文件夹,至此转换完毕。可以将该数据集进行训练验证等操作
在这里插入图片描述

要创建 Mask R-CNN 的数据集,你可以使用 Labelme 工具进行标注。以下是制作 Mask R-CNN 数据集的步骤: 1. 安装 Labelme:首先,你需要安装 Labelme 工具。你可以通过以下命令使用 pip 安装 Labelme: ``` pip install labelme ``` 2. 收集图像:准备一组图像,这些图像包含你感兴趣的对象。确保图像包含对象的各种姿态和场景。 3. 使用 Labelme 进行标注:运行 Labelme 工具,并打开其中一张图像。使用 Labelme 的绘图工具创建对象的边界框,并在需要的情况下绘制每个对象的掩码。 4. 保存标注结果:在 Labelme 工具中,选择 "File -> Save",将标注结果保存为 JSON 文件。确保为每个图像都保存了相应的 JSON 文件。 5. 换为 COCO 格式:Mask R-CNN 使用 COCO 格式作为输入数据集的标准格式。你可以使用 Labelme 提供的脚本将标注结果换为 COCO 格式。运行以下命令将 JSON 文件换为 COCO 格式的标注文件: ``` labelme2coco <input_dir> <output_dir> ``` 其中 `<input_dir>` 是包含 JSON 文件的目录,`<output_dir>` 是生成的 COCO 格式标注文件的输出目录。 6. 准备图像和标注文件:将图像文件和 COCO 格式的标注文件放在同一个目录下。确保文件名对应,如图像文件名为 `image.jpg`,则标注文件应为 `image.json`。 7. 划分数据集:根据需要,将数据集划分为训练集、验证集和测试集。可以按照比例随机划分,确保每个子集都包含各种对象和场景。 现在,你就可以使用制作好的 Mask R-CNN 数据集进行模型训练和测试了。希望这些步骤对你有帮助!
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值