第八届泰迪杯准备阶段心得 B题绝缘子 -图像数据处理

本文介绍了在第八届泰迪杯准备阶段中处理绝缘子图像的心得,包括利用GitHub数据集、百度AI主体识别与CV2的grabCut算法进行绝缘子识别与切割,以及Photoshop辅助修正和二值法生成掩模图的过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

图像数据的收集阶段

GitHub数据

绝缘子数据集
这个github数据集上拥有自爆绝缘子以及完整绝缘子的图片。
优点:数据量很大,而且有对应绝缘子坐标的xml文件。
缺点:数据集普遍分辨率较低,而且可以明显的看到这些数据集是经过数据增强的,而且没有对应原图的掩模图。对于我们二次提取绝缘子的完整子串有很大的难度。

调用百度AI图像处理中的主体识别AIP+CV2 grabCut算法实现自主识别并切割出绝缘子串

百度AI主体识别入口

在上方链接中注册好应用之后就按照新手教程的指导调用他的接口实现自主识别主体并返回对应信息,信息是存储在字典dict中,读取结果的时候要特别小心。

from aip import AipImageClassify

""" 你的 APPID AK SK """
APP_ID = '你的 App ID'
API_KEY = '你的 Api Key'
SECRET_KEY = '你的 Secret Key'

client = AipImageClassify(APP_ID, API_KEY, SECRET_KEY)
""" 读取图片 """
def get_file_content(filePath):
    with open(filePath, 'rb') as fp:
        return fp.read()

image = get_file_content(filePath)

""" 调用图像主体检测 """
client.objectDetect(image);

""" 如果有可选参数 """
options = {
   
   }
options["with_face"] = 0

""" 带参数调用图像主体检测 """
a = client.objectDetect(image, options)##赋值的对象是client.objectDetect不是client

print(a['result'])

然后通过接口返回的数据让grabcut获得对应坐标的信息之后就可以进行主体裁切了

!!!
下方代码经由文章出处改动增加多层循环方便批量处理
!!!

下方代码并没有嵌入百度AIP,读者需要自行添加到for里面,并且改动rect的值。

import numpy as np
import cv2
from aip import AipImageClassify
import os
    
     
#鼠标事件的回调函数
def on_mouse(event,x,y,flag,param):        
    global rect
    global leftButtonDowm
    global leftButtonUp
    
    #鼠标左键按下
    if event == cv2.EVENT_LBUTTONDOWN:
        rect[0] = x
        rect[2] = x
        rect[1] = y
        rect[3] = y
        leftButtonDowm = True
        leftButtonUp = False
        
    #移动鼠标事件
    if event == cv2
### 关于2023年第十一届泰迪B数据集大小 根据已知的信息,第十一届泰迪B涉及的是电力巡检中的绝缘子缺陷检测问[^3]。然而,在提供的参考资料中并未明确提及具体的数据集条目数量或文件大小。 通常情况下,竞赛主办方会提供详细的说明文档或者技术指南来描述数据集的具体规模。对于此类赛事,数据集的大小可以从以下几个方面推测: 1. **数据量范围**: 类似主的比赛(如图像识别类任务),其训练数据集一般包含数千到数万张图片,每张图片可能附带标注信息。例如,基于Mask R-CNN及YOLOv4的研究中提到的数据集往往具有较大的样本容量以支持模型的有效训练。 2. **存储空间**: 图像数据集的总大小取决于单张图片分辨率以及整体样本数量。假设平均分辨率为 \(640 \times 640\) 像素,JPEG格式下一张图片大约占用几百KB至几MB的空间,则整个数据集可能达到GB级别。 由于官方未公开确切数值,建议访问百度网盘链接下载并查看实际内容以获取权威答案。 ```python import os # 示例代码用于计算本地解压后的数据集大小 def calculate_dataset_size(directory_path): total_size = 0 for dirpath, _, filenames in os.walk(directory_path): for f in filenames: fp = os.path.join(dirpath, f) # 跳过不存在的路径或其他错误情况 if not os.path.islink(fp): total_size += os.path.getsize(fp) return total_size / (1024 * 1024) # 返回单位为 MB dataset_directory = "/path/to/dataset" print(f"Dataset size is {calculate_dataset_size(dataset_directory):.2f} MB") ``` #### 注意事项 上述脚本仅作为参考工具,请替换 `"/path/to/dataset"` 为真实目录地址运行测试。 ---
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值