图像分割之--mmsegmentation使用

本文指导如何在Python环境中搭建mmsegmentation框架,包括创建虚拟环境、数据集标注、模型训练及测试,重点介绍了使用LabelMe工具、数据转换和配置调整。

1、构建环境

参考mmsegmentation使用说明:

创建虚拟环境
conda create -n mmsegmentation python=3.8 
进入虚拟环境
conda activate mmsegmentation
安装torch/torchvision
conda install pytorch torchvision -c pytorch 
安装mim
pip install -U openmim
安装mmcv-full ## 注意本地环境的cuda与mmcv-full的版本对应
mim install mmcv-full
linux安装有git+网络畅通,可以直接下载mmsegmentation
git clone -b [version] https://github.com/open-mmlab/mmsegmentation.git
or 没网的情况 则下载对应的.zip包进行解压
进入mmsegmentation
cd mmsegmentation
pip install -v -e.  or python setup.py develop
如果缺陷包,可以安装requirement.txt里面的对应包
pip install -r requirement.txt

按照上述步骤可搭建完成mmsegmentation的conda基础环境

2、制作数据集

  • 搭建labelme环境并标注数据
pip install labelme
然后直接运行labelme
labelme

可以看到如下消息以及对应窗口
在这里插入图片描述
在这里插入图片描述
按照标记点的方式,标记出对应的object,并给与不同的label(盗个别人的美女图)
在这里插入图片描述

  • 使用labelme源码中的labelme2voc.py进行数据转换
    (1)新建labels.txt,并在其中添加你的类别,如下,我只有一个类别line ,默认需要添加__ignore__以及_background_两个默认类别
    在这里插入图片描述
    (2)准备如下源码
from __future__ import print_function

import argparse
import glob
import os
import os.path as osp
import sys

import imgviz
import numpy as np

import labelme


def main():
    parser = argparse.ArgumentParser(
        formatter_class=argparse.ArgumentDefaultsHelpFormatter
    )
    parser.add_argument("input_dir", help="input annotated directory")
    parser.add_argument("output_dir", help="output dataset directory")
    parser.add_argument("--labels", help="labels file", required=True)
    parser.add_argument(
        "--noviz", help="no visualizati
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI小花猫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值