深度学习框架(YOLOv8)对RTTS雾数据集和RESIDE数据集进行训练及推理和可视化

如何使用深度学习框架(YOLOv8)对RTTS雾数据集和RESIDE数据集进行训练及推理和可视化

RTTS雾数据集(yolo格式的RTTS的txt标签) RESIDE数据集(RTTS、OTS、ITS、SOTS、HSTS、Unannotated Real-worls Hazy)
在这里插入图片描述
1
在这里插入图片描述
1
在这里插入图片描述
1
在这里插入图片描述
使用深度学习框架(如YOLOv8)对RTTS雾数据集和RESIDE数据集中的其他子集进行训练、推理及可视化,我们需要遵循以下步骤:准备数据集、配置模型参数、训练模型、评估模型性能以及推理和结果可视化。以下是详细的指南和代码示例。

1. 数据集准备

假设你的数据集结构如下:

RESIDE/
├── RTTS/
│   ├── images/
│   │   ├── train/
│   │   └── val/
│   └── labels/
│       ├── train/
│       └── val/
├── OTS/
│   ├── images/
│   │   ├── train/
│   │   └── val/
│   └── labels/
│       ├── train/
│       └── val/
└── ITS/
    ├── images/
    │   ├── train/
    │   └── val/
    └── labels/
        ├── train/
        └── val/
data_RESIDE.yaml

data_RESIDE.yaml 文件内容示例:

train: ./RESIDE/RTTS/images/train/
val: ./RESIDE/RTTS/images/val/

nc: 1  # 假设只有一类目标
names: ['target_class']

请根据实际情况调整类别数量和名称。

2. 安装依赖库

确保安装了必要的库:

pip install ultralytics opencv-python-headless tensorboard

3. 模型训练

创建一个Python脚本来开始训练过程。这里我们以YOLOv8为例说明如何训练模型。

训练脚本
from ultralytics import YOLO

def main_train():
    # 加载预训练的YOLOv8n模型或从头开始定义模型
    model = YOLO('yolov8n.yaml')  # 或者直接加载预训练权重,如 'yolov8n.pt'
    
    results = model.train(
        data='./data_RESIDE.yaml',
        epochs=100,  # 根据需要调整
        imgsz=640,
        batch=16,
        project='./runs/detect',
        name='RESIDE_detection',
        optimizer='SGD',
        device='0',  # 使用GPU编号
        save=True,
        cache=True,
        verbose=True,
    )

if __name__ == '__main__':
    main_train()

4. 推理与结果可视化

训练完成后,我们可以利用训练好的模型对新图片进行预测,并将结果可视化。

推理脚本
import cv2
from PIL import Image
from ultralytics import YOLO

model = YOLO('./runs/detect/RESIDE_detection/weights/best.pt')

def detect_objects(image_path):
    results = model.predict(source=image_path)
    img = cv2.imread(image_path)
    for result in results:
        boxes = result.boxes.numpy()
        for box in boxes:
            r = box.xyxy
            x1, y1, x2, y2 = int(r[0]), int(r[1]), int(r[2]), int(r[3])
            label_id = int(box.cls)
            label = result.names[label_id]
            confidence = box.conf
            if confidence > 0.5:  # 设置置信度阈值
                cv2.rectangle(img, (x1, y1), (x2, y2), (0, 255, 0), 2)  # 绘制矩形框
                cv2.putText(img, f'{label} {confidence:.2f}', (x1, y1 - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0, 255, 0), 2)
    return img

# 示例调用
result_image = detect_objects('your_test_image.jpg')  # 确保测试图像路径正确
Image.fromarray(cv2.cvtColor(result_image, cv2.COLOR_BGR2RGB)).show()  # 使用PIL显示图像

5. 可视化界面

为了监控训练过程,可以使用TensorBoard。在训练脚本中添加 tensorboard=True 参数,然后运行以下命令启动TensorBoard:

tensorboard --logdir runs/

然后在浏览器中访问 http://localhost:6006 查看训练进度和结果。

### 将RTTS数据集转换为YOLO格式 要将RTTS数据集转换为适用于YOLO模型的格式,需遵循特定的数据结构标注文件的标准。以下是详细的说明: #### 数据集结构 YOLO格式要求数据集具有清晰的目录结构。通常情况下,数据集应分为`images``labels`两个子文件夹[^1]。具体结构如下: ``` dataset/ ├── images/ │ ├── train/ │ │ ├── image1.jpg │ │ ├── image2.jpg │ └── val/ │ ├── image3.jpg │ ├── image4.jpg └── labels/ ├── train/ │ ├── image1.txt │ ├── image2.txt └── val/ ├── image3.txt ├── image4.txt ``` #### 转换步骤 1. **准备原始数据** RTTS数据集中可能包含图片及其对应的标注信息(通常是XML或其他格式)。如果尚未下载该数据集,请访问提供的链接获取已转换好的版本。 2. **解析标注文件** 如果标注是以Pascal VOC XML格式存储,则需要将其转化为YOLO所需的TXT格式。每张图片对应一个`.txt`文件,其中每一行表示一个目标框的信息,格式为: ``` <class_id> <x_center> <y_center> <width> <height> ``` 这些值均为归一化后的浮点数,范围在0到1之间[^4]。 3. **编写转换脚本** 下面是一个Python脚本示例,用于将Pascal VOC格式的标注转换为YOLO格式: ```python import xml.etree.ElementTree as ET import os def convert(size, box): dw = 1./size[0] dh = 1./size[1] x = (box[0] + box[1])/2.0 y = (box[2] + box[3])/2.0 w = box[1] - box[0] h = box[3] - box[2] x = x*dw w = w*dw y = y*dh h = h*dh return (x,y,w,h) def convert_annotation(xml_file, output_dir, class_dict): tree = ET.parse(xml_file) root = tree.getroot() size = root.find('size') w = int(size.find('width').text) h = int(size.find('height').text) file_name = os.path.basename(xml_file).replace('.xml', '.txt') out_file_path = os.path.join(output_dir, file_name) with open(out_file_path, 'w') as out_file: for obj in root.iter('object'): difficult = obj.find('difficult').text cls = obj.find('name').text if cls not in class_dict or int(difficult)==1: continue cls_id = class_dict[cls] xmlbox = obj.find('bndbox') b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text)) bb = convert((w,h), b) out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n') # Example usage classes = {'person': 0, 'car': 1} # Define your own class mapping input_xmls = '/path/to/xml/files' output_txts = '/path/to/output/txt/files' for xml_file in os.listdir(input_xmls): if xml_file.endswith(".xml"): convert_annotation(os.path.join(input_xmls, xml_file), output_txts, classes) ``` 4. **创建数据集配置文件** 配置文件定义了类别列表以及训练验证集路径。例如: ```yaml path: /path/to/dataset train: images/train val: images/val nc: 2 # Number of classes names: ['person', 'car'] # Class names ``` 5. **加载模型并开始训练** 使用官方库Ultralytics实现YOLOv8训练过程。参考以下代码片段启动训练流程[^2]: ```python from ultralytics import YOLO model = YOLO("ultralytics/cfg/models/11/yolo11l.yaml") results = model.train( data="/path/to/data/config.yaml", patience=0, epochs=2, device='0', batch=8, seed=42, imgsz=[640, 640] ) ``` --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值