yolo系列-yolov12训练自己数据集详细过程

GitHub模型链接
跟着官网README文件走

直接跳到Training示例

这里与yolox不太相同的点:
1.数据集使用的是yolo类型
2.模型训练、预测、推理都已经封装好了,实例化调用进行

官方示例

from ultralytics import YOLO
model = YOLO('yolov12n.yaml')
# Train the model
results = model.train(
  data='coco.yaml',
  epochs=600, 
  batch=256, 
  imgsz=640,
  scale=0.5,  # S:0.9; M:0.9; L:0.9; X:0.9
  mosaic=1.0,
  mixup=0.0,  # S:0.05; M:0.15; L:0.15; X:0.2
  copy_paste=0.1,  # S:0.15; M:0.4; L:0.5; X:0.6
  device="0,1,2,3",
)
# Evaluate model performance on the validation set
metrics = model.val()

# Perform object detection on an image
results = model("pa
### FLIR 数据集概述 FLIR数据集是一个多光谱图像数据集,包含了同步采集的可见光和长波红外(LWIR)成像仪拍摄的数据[^2]。该数据集广泛应用于计算机视觉领域中的目标检测研究。 ### 下载指南 对于希望使用FLIR数据集的研究人员来说,可以通过访问官方GitHub仓库获取数据集- **官方网站**: 访问[FLIR ADK GitHub](https://github.com/flir)页面可以找到有关ADK项目的更多信息。 - **直接下载链接**: 提供了一个压缩包形式的公开测试集用于评估目的。如果想要获得完整的训练/验证分割,则需填写申请表并遵循FLIR设定的相关条款与条件。 ### 使用说明 为了有效地利用这个数据集,在开始之前应当了解几个要点: #### 文件结构解析 解压后的文件夹通常会按照如下方式组织: ``` FLIR_ADAS_dataset/ ├── images/ │ ├── train/ │ └── val/ └── annotations/ ├── train.json └── val.json ``` 其中`images/train` 和 `images/val`分别存储着训练集和验证集中每一张图片;而对应的标注信息则保存于JSON格式文件内(`annotations/*.json`)。 #### 工具链推荐 考虑到FLIR数据集的特点,建议采用COCO API工具来进行数据预处理工作,这有助于简化后续操作如类别映射转换、增强变换等任务。 ```bash pip install pycocotools ``` 通过上述命令安装pycocotools库之后即可轻松读取`.json`格式标签文档,并执行诸如过滤特定类别的实例等功能。 ### 相关论文 关于FLIR数据集的应用案例众多,以下是几篇具有代表性的学术文章: - "A Benchmark Dataset and Evaluation for Thermal Pedestrian Detection"[^3] 这篇文章介绍了首个大规模行人重识别基准之一——FLIR RGB-T行人再识别数据库的设计理念及其应用场景价值分析。 - "Multimodal Fusion Networks for All Weather Perception Using Visible Light and Long Wave Infrared Cameras"[^4] 探讨了融合RGB彩色相机与远红外热成像传感器所捕获的信息来提升全天候感知能力的方法论探讨和技术路线图绘制。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值