将语义分割的标签转换为实例分割(yolo)的标签

语义分割的标签(目标处为255,其余处为0)
在这里插入图片描述
实例分割的标签(yolo.txt),描述边界的多边形顶点的归一化位置
在这里插入图片描述
绘制在原图类似蓝色的边框所示。
在这里插入图片描述

废话不多说,直接贴代码;

import os
import cv2
import numpy as np
import shutil

def img2label(imgPath, labelPath, imgbjPath, seletName):
    # 检查labelPath文件夹是否存在
    
    if not os.path.exists(labelPath):
        os.makedirs(labelPath)
    if not os.path.exists(imgbjPath):
        os.makedirs(imgbjPath)
    imgList = os.listdir(imgPath)
    for imgName in imgList:
        # 筛选
        if imgName.split('_')[0] != seletName and seletName != '':
            continue
        print(imgName)
        img = cv2.imread(imgPath + imgName, cv2.IMREAD_COLOR)
        h, w, _ = img.shape
        # print(h, w)
        GrayImage=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY) #图片灰度化处理
        ret, binary = cv2.threshold(GrayImage,40,255,cv2.THRESH_BINARY) #图片二值化,灰度值大于40赋值255,反之0
        # ret, binary = cv2.threshold(binary, 80, 255, cv2.THRESH_BINARY_INV)    # (黑白二值反转)
        cv2.imwrite(r'denoisedfz.png', binary) #保存图片
        # 腐蚀
        # kernel = np.ones((3,3),np.uint8) 
        # binary = cv2.erode(binary,kernel,iterations = 3)
        
        thresholdL = h/100 * w/100   #设定阈值
        thresholdH = h/1 * w/1   #设定阈值

        #cv2.fingContours寻找图片轮廓信息
        """提取二值化后图片中的轮廓信息 ,返回值contours存储的即是图片中的轮廓信息,是一个向量,内每个元素保存
        了一组由连续的Point点构成的点的集合的向量,每一组Point点集就是一个轮廓,有多少轮廓,向量contours就有
        多少元素"""
        contours,hierarch=cv2.findContours(binary,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_TC89_L1)
        contoursNorm = []
        objs= []
        # print(contours)
        for i in range(len(contours)):
            
            area = cv2.contourArea(contours[i]) #计算轮廓所占面积
            # print(area)
            if area > thresholdL and area < thresholdH:
                obj = ['0']
                for point in contours[i]:
                    obj.append(str(point[0][0] * 1.0 / w)) # 获取x
                    obj.append(str(point[0][1] * 1.0 / h)) # 获取y
                contoursNorm.append(contours[i])
                objs.append(obj)
        
        # print(objs[10])
        # 查看效果
        cv2.drawContours(img, contoursNorm, -1,(255,0,0),2)
        cv2.imwrite(imgbjPath+imgName, img) #保存图片

        if len(objs) == 0:
            print('不保存标签,跳过!')
            continue
        # 写入txt
        realName = imgName.split('-l')[0]
        f=open(labelPath + realName + '.txt',"w")
        for obj in objs:
            f.writelines(' '.join(obj))
            f.writelines('\n')
        f.close()
        # break

# oridata 保存着原图像
# maskdata 保存着标签图像
# lab 保存这yolo格式的标签文件
# bj 保存着标记好边界的图像

def OrganizeImages(path):
    imgs = os.listdir(path)
    for im in imgs:
        imPath = os.path.join(path, im)
        if im.split('.')[-1] == 'jpg':
            # 原图像
            # 移动到oridata
            source_path = imPath
            destination_path = 'data\\oridata\\' + im
            shutil.copy(source_path, destination_path)
        if im.split('.')[-1] == 'png':
            # mask label
            # 移动到maskdata
            source_path = imPath
            destination_path = 'data\\maskdata\\' + im
            shutil.copy(source_path, destination_path)


if __name__ == '__main__':
    img2label(
        imgPath='data\\maskdata\\',  # maskdata 保存着标签图像
        labelPath='data\\lab\\',     # lab 保存这yolo格式的标签文件
        imgbjPath = 'data\\bj\\',    # bj 保存着标记好边界的图像
        seletName='')
### 将YOLO语义分割转换为目标检测的实现方法 #### 数据准备与预处理 在将YOLO用于从语义分割转换到目标检测的任务时,首先需要对数据进行适当的调整。通常情况下,语义分割任务会提供像素级别的分类标签,而目标检测则关注于边界框的位置及其类别。因此,可以利用语义分割的结果提取对象的边界框。 对于 Peach 桃子语义分割数据集,其已经按比例划分为训练集、验证集和测试集,并提供了 YOLO 格式的语义分割标签[^2]。这些标签可以通过特定工具或自定义脚本进一步加工成适合目标检测的形式。 #### 边界框提取 要完成这一转换过程,可以从语义分割掩码中识别连通域并计算包围该区域的最小矩形边界框。这一步骤涉及以下几个方面: - **连通域分析**:通过形态学操作找到图像中的不同物体实例。 - **边界框生成**:针对每一个独立的对象实例,确定其外接矩形坐标 (x_min, y_min, x_max, y_max)[^1]。 此过程中可能需要用到 OpenCV 或其他计算机视觉库辅助完成具体的算法逻辑。 ```python import cv2 import numpy as np def mask_to_bbox(mask): contours, _ = cv2.findContours((mask).astype(np.uint8), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) bboxes = [] for contour in contours: x,y,w,h = cv2.boundingRect(contour) bboxes.append([x, y, w, h]) return bboxes ``` 上述代码片段展示了如何从二值化掩码图中获取多个目标对应的边界框信息[^3]。 #### 训练配置修改 当准备好适配的目标检测格式的数据之后,就可以着手设置 YOLO 的训练参数了。需要注意的是,在切换至目标检测模式下运行时,应确保网络架构能够适应新任务的需求——即不再预测逐像素类别的分布情况而是定位实体位置及种类概率向量。 具体而言,如果采用 YOLOv8 进行实验,则可通过官方文档指导下的命令行选项指定输入数据路径以及相应的超参优化策略。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值