VOC数据集的制作

从官网下载了VOC2007的数据集,针对自己的数据集制作了VOC格式的,主要包括JPEGImages、Annotations、ImageSets三个文件夹(官网的包含五个,其余两个可能并不需要吧),JPEGImages文件夹中存放自己需要处理的所有图片,Annotations文件夹中存放图片对应的xml文件(使用标注工具生成的),ImageSets主要包含Main文件夹(官网的含有三个,其余两个暂时不需要),Main文件夹里存放的是四个txt文件,分别为

每一个txt文件存放的是对应数据集的名字,如:

txt文件需要自动生成,采用的是python写的一个demo

import os
import random 
#先划分训练集+验证集(0.8)和测试集,再将训练集+验证集划分开(一样一半)
trainval_percent = 0.8 
train_percent = 0.7 
xmlfilepath = 'C:\\Users\\asus\\Desktop\\Annotations' 
txtsavepath = 'C:\\Users\\asus\\Desktop\\ImageSets\\Main' 
total_xml = os.listdir(xmlfilepath) 

num=len(total_xml) 
tv=int(num*trainval_percent)#训练集+验证集
tr=int(tv*train_percent) #训练集
trainval= random.sample(range(num),tv) 
train=random.sample(trainval,tr) 

ftrainval = open('C:\\Users\\asus\\Desktop\\ImageSets\\Main\\trainval.txt', 'w') 
ftest = open('C:\\Users\\asus\\Desktop\\ImageSets\\Main\\test.txt', 'w') 
ftrain = open('C:\\Users\\asus\\Desktop\\ImageSets\\Main\\train.txt', 'w') 
fval = open('C:\\Users\\asus\\Desktop\\ImageSets\\Main\\val.txt', 'w') 

for i in range(num):
    name=total_xml[i][:-4]+'\n' 
    if i in trainval: 
        ftrainval.write(name) 
        if i in train: 
            ftrain.write(name) 
        else:
            fval.write(name)
    else:
        ftest.write(name) 

ftrainval.close()
ftrain.close()
fval.close()
ftest.close()

 

### 创建和准备 VOC 格式的数据集 #### 1. 数据收集 为了构建一个适合机器学习或深度学习项目的 VOC 格式数据集,第一步是获取高质量的原始图像素材。这些图像可以来源于公开数据库、自拍照片或者通过爬虫工具抓取互联网上的图片资源[^1]。 #### 2. 图像标注 完成图像采集之后,需要对每张图片中的对象进行精确标注。VOC格式支持多种类型的标签文件,最常见的是XML格式。每一个XML文件对应一张图片,并记录该图内的所有物体类别及其边界框位置信息。具体来说,这涉及定义每个目标的位置参数(xmin, ymin, xmax, ymax),以及分配相应的类名给它们[^2]。 #### 3. 文件结构组织 建立清晰合理的目录体系对于后续处理至关重要。典型的VOC风格数据集中应该包含以下几个主要部分: - **JPEGImages**: 存储所有的输入图像; - **Annotations**: 放置与上述图像对应的标注文件(.xml); - **ImageSets/Main/**: 提供各种索引列表(train.txt,val.txt,test.txt),用来指示哪些样本属于训练集、验证集还是测试集[^3]。 #### 4. 划分数据子集 最后一步就是合理分割整个集合成为相互独立又互补的部分——即前面提到过的训练集、验证集和测试集。一般推荐采用70%-80%作为训练用途;剩余则平均分配至验证及最终评测阶段使用。 ```python import os from xml.etree.ElementTree import Element, SubElement, tostring def create_voc_annotation(image_name, objects): annotation = Element('annotation') folder = SubElement(annotation, 'folder') folder.text = 'VOC' filename = SubElement(annotation, 'filename') filename.text = image_name source = SubElement(annotation, 'source') database = SubElement(source, 'database') database.text = 'The VOC Database' size_part = SubElement(annotation, 'size') width = SubElement(size_part, 'width') height = SubElement(size_part, 'height') depth = SubElement(size_part, 'depth') # Assuming RGB images width.text = str(IMAGE_WIDTH) height.text = str(IMAGE_HEIGHT) depth.text = str(DEPTH) segmented = SubElement(annotation, 'segmented') segmented.text = '0' for obj in objects: object_elem = SubElement(annotation, 'object') name = SubElement(object_elem, 'name') pose = SubElement(object_elem, 'pose') truncated = SubElement(object_elem, 'truncated') difficult = SubElement(object_elem, 'difficult') bndbox = SubElement(object_elem, 'bndbox') name.text = obj['class'] pose.text = 'Unspecified' truncated.text = '0' difficult.text = '0' xmin = SubElement(bndbox, 'xmin') ymin = SubElement(bndbox, 'ymin') xmax = SubElement(bndbox, 'xmax') ymax = SubElement(bndbox, 'ymax') xmin.text = str(obj['bbox'][0]) ymin.text = str(obj['bbox'][1]) xmax.text = str(obj['bbox'][2]) ymax.text = str(obj['bbox'][3]) return annotation # Example usage of the function with dummy data. objects_info = [{'class': 'smoker', 'bbox':[50,60,198,200]}] image_file_name="example.jpg" tree_structure = create_voc_annotation(image_file_name, objects_info) print(tostring(tree_structure)) ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值