详细labelme批量处理json文件,json_to_dataset方法

Labelme批量处理json文件方法详解

Labelme批量处理json文件,json_to_dataset方法

第一步:找到json_to_dataset.py文件
第二步修改json_to_dataset.py文件
第三步找到labelme_json_to_dataset.exe文件
第四步切换路径
第五步传入.json文件路径,执行转换
完成
这个是处理.json文件后产生的数据,使用方法为labelme_json_to_dataset+空格+文件名称.json,这个前提是labelme要准确安装并激活。但是这样会产生一个问题,对多幅图像这样处理,太麻烦,在这里提供一个工具,可以直接在.json文件目录下转换所有的json文件
————————————————
第一步:找到json_to_dataset.py文件
打开abelme安装目录:
1.labelme直接安装在anaconda主环境下,C:\ProgramData\Anaconda3\Lib\site-packages\labelme\cli目录(根据自己电脑anaconda安装目录而定),可以看到json_to_dataset.py文件。
2.labelme安装在自己新建的虚拟环境下边,需要找到ananonda安装目录下的envs文件夹中的虚拟环境文件,C:\ProgramData\Anaconda3\envs\lb\Lib\site-packages\labelme\cli。
在这里插入图片描述
第二步修改json_to_dataset.py文件
将下边的代码替换json_to_dataset.py文件并保存

import argparse
import json
import os
import os.path as osp
import warnings
 
import PIL.Image
import yaml
 
from labelme import utils
import base64
 
def main():
    warnings.warn("This script is aimed to demonstrate how to convert the\n"
                  "JSON file to a single image dataset, and not to handle\n"
                  "multiple JSON files to generate a real-use dataset.")
    parser = argparse.ArgumentParser()
    parser.add_argument('json_file')
    parser.add_argument('-o', '--out', default=None)
    args = parser.parse_args()
 
    json_file = args.json_file
    if args.out is None:
        out_dir = osp.basename(json_file).replace('.', '_')
        out_dir = osp.join(osp.dirname(json_file), out_dir)
    else:
        out_dir = args.out
    if not osp.exists(out_dir):
        os.mkdir(out_dir)
 
    count = os.listdir(json_file) 
    for i in range(0, len(count)):
        path = os.path.join(json_file, count[i])
        if os.path.isfile(path):
            data = json.load(open(path))
            
            if data['imageData']:
                imageData = data['imageData']
            else:
                imagePath = os.path.join(os.path.dirname(path), data['imagePath'])
                with open(imagePath, 'rb') as f:
                    imageData = f.read()
                    imageData = base64.b64encode(imageData).decode('utf-8')
            img = utils.img_b64_to_arr(imageData)
            label_name_to_value = {'_background_': 0}
            for shape in data['shapes']:
                label_name = shape['label']
                if label_name in label_name_to_value:
                    label_value = label_name_to_value[label_name]
                else:
                    label_value = len(label_name_to_value)
                    label_name_to_value[label_name] = label_value
            
            # label_values must be dense
            label_values, label_names = [], []
            for ln, lv in sorted(label_name_to_value.items(), key=lambda x: x[1]):
                label_values.append(lv)
                label_names.append(ln)
            assert label_values == list(range(len(label_values)))
            
            lbl = utils.shapes_to_label(img.shape, data['shapes'], label_name_to_value)
            
            captions = ['{}: {}'.format(lv, ln)
                for ln, lv in label_name_to_value.items()]
            lbl_viz = utils.draw_label(lbl, img, captions)
            
            out_dir = osp.basename(count[i]).replace('.', '_')
            out_dir = osp.join(osp.dirname(count[i]), out_dir)
            if not osp.exists(out_dir):
                os.mkdir(out_dir)
 
            PIL.Image.fromarray(img).save(osp.join(out_dir, 'img.png'))
            #PIL.Image.fromarray(lbl).save(osp.join(out_dir, 'label.png'))
            utils.lblsave(osp.join(out_dir, 'label.png'), lbl)
            PIL.Image.fromarray(lbl_viz).save(osp.join(out_dir, 'label_viz.png'))
 
            with open(osp.join(out_dir, 'label_names.txt'), 'w') as f:
                for lbl_name in label_names:
                    f.write(lbl_name + '\n')
 
            warnings.warn('info.yaml is being replaced by label_names.txt')
            info = dict(label_names=label_names)
            with open(osp.join(out_dir, 'info.yaml'), 'w') as f:
                yaml.safe_dump(info, f, default_flow_style=False)
 
            print('Saved to: %s' % out_dir)
if __name__ == '__main__':
    main()

第三步找到labelme_json_to_dataset.exe文件
方法同第一步,我这里只展示我的虚拟环境下的目录:C:\ProgramData\Anaconda3\envs\lb\Scripts
在这里插入图片描述
在这里插入图片描述
第四步切换路径
打开anaconda prompt,激活虚拟环境
在这里插入图片描述
在这里插入图片描述
用cd命令切换路径:cd C:\ProgramData\Anaconda3\envs\lb\Scripts
在这里插入图片描述
第五步传入.json文件路径,执行转换
执行:labelme_json_to_dataset.exe +json文件的路径
在这里插入图片描述
在scripts自动生成转换文件:
在这里插入图片描述
在这里插入图片描述
完成
如果出现错误AttributeError:模块’labelme.utils’没有’draw_label’属性,AttributeErrormodulelabelmeutilshasnoattributedrawlabel

需要更换labelme版本,需要降低labelme 版本到3.16.2 ,方法进入labelme环境中,键入 pip install labelme==3.16.2就可以自动下载这个版本了,就可以成功了。

### 下载 LabelMe 工具 LabelMe 是一种用于图像标注的强大工具,支持多种类型的标注任务,包括边界框、多边形和像素级分割。要下载并安装 LabelMe 工具,可以按照以下方法操作: #### 安装方式 可以通过 pip 来快速安装 LabelMe: ```bash pip install labelme ``` 如果需要最新版本或者特定功能的分支,则可以从 GitHub 上克隆仓库: ```bash git clone https://github.com/wkentaro/labelme.git cd labelme pip install -e . ``` 以上命令会将 LabelMe 的源码拉取到本地,并完成依赖环境的配置。 --- ### 使用 `batch _to_dataset` 方法 为了实现批量处理并将标注数据转换为目标检测或语义分割所需的 COCO 数据集格式,可以利用脚本 `labelme2coco.py` 提供的功能[^1]。以下是具体的操作流程: #### 准备工作 确保已经准备好所有的 JSON 文件(由 LabelMe 导出),这些文件包含了每张图片对应的标注信息。JSON 文件应存放在指定目录下以便统一管理。 #### 转换过程 运行如下 Python 脚本来执行批量化 `_to_dataset` 处理逻辑: ```python import os import json from labelme.utils import shape_to_mask, polygons_to_mask from PIL import Image import numpy as np def convert_labelme_jsons(input_dir, output_dir): """ 批量读取 LabelMe 生成JSON 文件,并将其转化为训练所需的数据结构。 参数: input_dir (str): 存放原始 JSON 文件的路径. output_dir (str): 输出转化后的数据存储位置. """ if not os.path.exists(output_dir): os.makedirs(output_dir) images_info = [] annotations = [] image_id_counter = 0 annotation_id_counter = 0 for filename in os.listdir(input_dir): if not filename.endswith(".json"): continue with open(os.path.join(input_dir, filename), 'r') as f: data = json.load(f) # 获取图像基本信息 img_path = os.path.join(data['imagePath']) width = data['imageWidth'] height = data['imageHeight'] # 构建图像条目 image_entry = { "id": image_id_counter, "file_name": img_path.split('/')[-1], "width": width, "height": height } images_info.append(image_entry) # 遍历每一个形状对象 for idx, shape in enumerate(data["shapes"]): points = shape["points"] label = shape["label"] mask = polygons_to_mask((height, width), points).astype(np.uint8) category_id = get_category_id(label) # 自定义函数获取类别ID bbox = compute_bbox(mask) # 计算包围盒坐标 area = compute_area(mask) # 计算区域面积 annotation_entry = { "id": annotation_id_counter, "image_id": image_id_counter, "category_id": category_id, "segmentation": [[int(x) for point in points for x in point]], "area": int(area), "bbox": [int(i) for i in bbox], "iscrowd": 0 } annotations.append(annotation_entry) annotation_id_counter += 1 image_id_counter += 1 dataset_dict = {"images": images_info, "annotations": annotations} save_coco_format(dataset_dict, output_dir) def save_coco_format(data, outdir): """保存为COCO格式""" coco_file = os.path.join(outdir, "dataset.json") with open(coco_file, 'w') as f: json.dump(data, f, indent=4) if __name__ == "__main__": input_directory = "./input_annotations" output_directory = "./output_converted" convert_labelme_jsons(input_directory, output_directory) ``` 上述代码实现了从输入 JSON 到标准 COCO 格式的自动化转换。其中涉及的关键部分包括但不限于:解析 JSON 中的标注信息、计算掩膜以及构建最终的目标检测数据字典。 --- ### 关键技术点说明 - **LabelMe 和 COCO 格式兼容性**:由于目标检测领域广泛采用 COCO 数据集作为基准,因此通过该脚本可轻松适配主流框架如 PyTorch 或 TensorFlow 的需求[^2]。 - **VLFeat 库的作用补充**:虽然此问题未提及 VLFeat 的直接应用,但在某些场景下它可用于提取局部特征描述符以增强模型性能[^3]。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值