【CVPR2025 DEIM】超详细!手把手训练自己的数据集教学:从源码下载,配置虚拟环境,准备数据集、训练、验证、推理测试 ,实现0到1的完整教学过程。本文在win系统上训练,最强实时目标检测算法!

🔥DEIM创新改进目录:全新DEIM有效涨点改进目录 | 包含各种最新顶会顶刊:卷积模块、注意力模块、特征融合模块、有效特征聚合提取模块,上采样模块、下采样模块,二次创新模块、独家创新,特殊场景检测等最全大论文及小论文必备创新改进点

🔥全新DEIM创新改进专栏地址:全网独家DEIM创新改进高效涨点+永久更新中(至少500+创新改进🗡剑指小论文、大论文)+小白也能简单高效跑实验+容易发各种级别小论文

本文目录

一、下载CVPR2025 DEIM官方源码

 二、创新DEIM项目虚拟环境

第一步创建一个自己的虚拟环境:

第二步进入到自己的虚拟环境:

第三步:安装pytorch,建议不要安装太新版本

第四步:直接复制以下所有命令到控制台“终端里面粘贴回车运行”

三、准备自己的数据集和配置自己数据集步骤

3.1 本文以训练Visdrone2019无人机数据集为例

3.2 将自己数据集放到datasets文件夹里

​3.3 配置数据步骤

四、使用DEIM训练自己的数据集

4.1 训练前先修改一下train.py训练脚步里的参数

4.2 train.py脚本代码完整代码

4.3 windows系统上第一次训练,需要解决这个源码bug!

五、验证自己的模型效果

六、推理测试自己的模型

七、DEIM模型生成论文实验热力图

一、下载CVPR2025 DEIM官方源码

DEIM项目源码地址:点击链接自动跳转!

[CVPR 2025] DEIM: DETR with Improved Matching for Fast Convergence

二、创新DEIM项目虚拟环境

如果有的小伙伴是Windows系统,订阅后可以私信怪导,可以直接将Windows系统的deim虚拟环境包发给你,自己按照pdf文件操作步骤几分钟搞定!

下方是自己创建DEIM虚拟环境的详细步骤:

第一步:创建一个自己的虚拟环境:

conda create -n deim python=3.10

第二步:进入到自己的虚拟环境:

conda activate deim

第三步:安装pytorch,建议不要安装太新版本

pytorch官网:Previous PyTorch Versions

conda install pytorch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 pytorch-cuda=12.1 -c pytorch -c n

比如下面截图是我的deim虚拟环境pytorch和torchvision版本举例:

第四步:直接复制以下所有命令到控制台“终端里面粘贴回车运行”

安装所需要的包!

pip install ultralytics -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install torchsummary -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install onnx==1.14.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install onnxruntime==1.15.1 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install pycocotools==2.0.7 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install faster-coco-eval==1.6.5 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install PyYAML -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install tensorboard -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install scipy -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install calflops -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install transformers -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install onnxsim==0.4.36 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install onnxruntime-gpu==1.18.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install timm==1.0.7 thop efficientnet_pytorch==0.7.1 einops grad-cam==1.4.8 dill==0.3.6 albumentations pytorch_wavelets==1.3.0  PyWavelets -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install -U openmim -i https://pypi.tuna.tsinghua.edu.cn/simple
mim install mmengine -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install mmcv==2.2.0 -f https://download.openmmlab.com/mmcv/dist/cu121/torch2.3/index.html

三、准备自己的数据集和配置自己数据集步骤

如果自己没有数据集,可以去这个官网上找公共数据集去练习:Roboflow Datasets

3.1 本文以训练Visdrone2019无人机数据集为例

VisDrone数据集是由天津大学等团队开源的一个大型无人机视角的数据集,官方提供的数据中训练集是6471、验证集是548、测试集1610张。数据集共提供了以下12个类,分别是:‘忽略区域’, ‘pedestrian’, ‘people’, ‘bicycle’, ‘car’, ‘van’,‘truck’, ‘tricycle’, ‘awning-tricycle’, ‘bus’, ‘motor’, ‘others’,其中忽略区域、others是非有效目标区域,本项目中予以忽略,只使用’pedestrian’, ‘people’, ‘bicycle’, ‘car’, ‘van’,‘truck’, ‘tricycle’, ‘awning-tricycle’, ‘bus’, 'motor’10个类。

Visdrone2019-COCO格式数据集下载链接:https://aistudio.baidu.com/datasetdetail/226107/0

Visdrone2019-YOLO格式数据集下载链接:https://aistudio.baidu.com/datasetdetail/295374

3.2 将自己数据集放到datasets文件夹里

3.3 配置数据步骤

第一步:在DEIM/configs/dataset文件中创建visdrone_detection.yml文件

第二步:修改visdrone_detection.yml文件

完整visdrone_detection.yml文件的代码:

task: detection

evaluator:
  type: CocoEvaluator
  iou_types: ['bbox', ]

num_classes: 10 # your dataset classes
remap_mscoco_category: False

train_dataloader:
  type: DataLoader
  dataset:
    type: CocoDetection
    img_folder: C:/software/mydemo/Demo/DEIM/datasets/visdrone/train2017
    ann_file: C:/software/mydemo/Demo/DEIM/datasets/visdrone/annotations/instances_train2017.json
    return_masks: False
    transforms:
      type: Compose
      ops: ~
  shuffle: True
  num_workers: 4
  drop_last: True
  collate_fn:
    type: BatchImageCollateFunction


val_dataloader:
  type: DataLoader
  dataset:
    type: CocoDetection
    img_folder: C:/software/mydemo/Demo/DEIM/datasets/visdrone/val2017
    ann_file: C:/software/mydemo/Demo/DEIM/datasets/visdrone/annotations/instances_val2017.json
    return_masks: False
    transforms:
      type: Compose
      ops: ~
  shuffle: False
  num_workers: 4
  drop_last: False
  collate_fn:
    type: BatchImageCollateFunction

第三步:修改DEIM\configs\deim_dfine\dfine_hgnetv2_n_coco.yml文件

我们跑deim_hgnetv2_n_coco.yml为例子,所以我们就修改dfine_hgnetv2_n_coco.yml文件!

接下来只需要修改dfine_hgnetv2_n_coco.yml文件中的一行代码即可1

__include__: [
#  '../dataset/coco_detection.yml',
  '../dataset/visdrone_detection.yml',
  '../runtime.yml',
  '../base/dataloader.yml',
  '../base/optimizer.yml',
  '../base/dfine_hgnetv2.yml',
]

第四步:修改deim_hgnetv2_n_coco.yml文件

当自己使用不同数据集训练,保存结果文件夹需要重新创建一下,否则第二次训练后的结果权重文件会覆盖第一次训练后的权重文件。

第四步:训练前,记得修改batch_size大小,根据自己设备显存大小去灵活设置。

修改configs/base/dataloader.yml中的total_batch_size

同时也修改DEIM\configs\deim_dfine\dfine_hgnetv2_n_coco.yml中的total_batch_size

第五步:修改DEIM\configs\runtime.yml文件中的参数,方便观察

checkpoint_freq: 1

到此为止,配置自己的数据集操作已经完成!

四、使用DEIM训练自己的数据集

4.1 训练前先修改一下train.py训练脚步里的参数

4.2 train.py脚本代码完整代码

"""
DEIM: DETR with Improved Matching for Fast Convergence
Copyright (c) 2024 The DEIM Authors. All Rights Reserved.
---------------------------------------------------------------------------------
Modified from RT-DETR (https://github.com/lyuwenyu/RT-DETR)
Copyright (c) 2023 lyuwenyu. All Rights Reserved.
"""

import os
import sys
os.environ["CUDA_VISIBLE_DEVICES"]= '0'


import warnings
warnings.filterwarnings('ignore')
sys.path.insert(0, os.path.join(os.path.dirname(os.path.abspath(__file__)), '..'))
import argparse
from engine.misc import dist_utils
from engine.core import YAMLConfig, yaml_utils
from engine.solver import TASKS

debug=False

if debug:
    import torch
    def custom_repr(self):
        return f'{{Tensor:{tuple(self.shape)}}} {original_repr(self)}'
    original_repr = torch.Tensor.__repr__
    torch.Tensor.__repr__ = custom_repr

def main(args, ) -> None:
    """main
    """
    dist_utils.setup_distributed(args.print_rank, args.print_method, seed=args.seed)

    assert not all([args.tuning, args.resume]), \
        'Only support from_scrach or resume or tuning at one time'


    update_dict = yaml_utils.parse_cli(args.update)
    update_dict.update({k: v for k, v in args.__dict__.items() \
        if k not in ['update', ] and v is not None})

    cfg = YAMLConfig(args.config, **update_dict)

    if args.resume or args.tuning:
        if 'HGNetv2' in cfg.yaml_cfg:
            cfg.yaml_cfg['HGNetv2']['pretrained'] = False

    print('cfg: ', cfg.__dict__)

    solver = TASKS[cfg.yaml_cfg['task']](cfg)

    if args.test_only:
        solver.val()
    else:
        solver.fit()

    dist_utils.cleanup()


if __name__ == '__main__':

    parser = argparse.ArgumentParser()

    # priority 0
    parser.add_argument('-c', '--config', default=r'C:\software\mydemo\Demo\DEIM\configs\deim_dfine\deim_hgnetv2_n_coco.yml',type=str)
    # parser.add_argument('-c', '--config', type=str, required=True)
    parser.add_argument('-r', '--resume', type=str, help='resume from checkpoint')
    parser.add_argument('-t', '--tuning', type=str, help='tuning from checkpoint')
    parser.add_argument('-d', '--device', type=str, help='device',)
    parser.add_argument('--seed', default=0,type=int, help='exp reproducibility')
    parser.add_argument('--use-amp', action='store_true', help='auto mixed precision training')
    parser.add_argument('--output-dir', type=str, help='output directoy')
    parser.add_argument('--summary-dir', type=str, help='tensorboard summry')
    parser.add_argument('--test-only', action='store_true', default=False,)

    # priority 1
    parser.add_argument('-u', '--update', nargs='+', help='update yaml config')

    # env
    parser.add_argument('--print-method', type=str, default='builtin', help='print method')
    parser.add_argument('--print-rank', type=int, default=0, help='print rank id')

    parser.add_argument('--local-rank', type=int, help='local rank id')
    args = parser.parse_args()

    main(args)

4.3 windows系统上第一次训练,需要解决这个源码bug!

windows系统上第一次训练,100%会出现这个bug问题。怪导教你如何解决这个bug!

解决方法:修改这个文件DEIM\engine\backbone\hgnetv2.py

            except Exception as e:
                print(f"{str(e)}")
                logging.error(RED + "CRITICAL WARNING: Failed to load pretrained HGNetV2 model" + RESET)
                logging.error(GREEN + f"Please manually download from {download_url} to {local_model_dir}" + RESET)

到此,现在可以正常训练使用DEIM官方模型了,助力大家高效去发小论文、完成毕业大论文!

第一次运行,默认是加载预训练权重,所以需要下载。(建议大家自己离线下载比较快,或是等它自动在线下载完,在线下载慢一些),在此处演示我关闭了加载预训练权重变量。

五、验证自己的模型效果

使用val.py脚本

DEIM训练部分epoch,给大家演示一下使用val.py在验证集或是测试集上的效果。

六、推理测试自己的模型

使用predict.py脚本

七、DEIM模型生成论文实验热力图

使用DEIM生成热力图脚本.py生成热力图,论文实验部分增加可视化热力图分析,提高论文的质量,增加小论文录用率。

八、本文总结

本文详细介绍了CVPR2025 DEIM目标检测模型的完整使用流程。内容包含:1)源码下载与虚拟环境配置;2)Visdrone2019数据集准备与配置文件修改;3)训练参数设置及Windows系统常见问题解决方案;4)模型验证、推理测试及热力图生成方法。特别针对Windows用户也提供了本地虚拟环境配置,并详细说明了数据集路径设置、参数调整等关键步骤。通过本文的指导,小伙伴可以快速掌握DEIM模型的使用方法,用于学术论文研究和实验分析。

### DEIM 训练方法概述 DEIM 是一种高效的实时目标检测框架,在多个维度上展现了卓越的表现,包括训练成本、推理延迟以及检测精度。其核心优势在于通过优化的技术手段提升了模型的性能和效率。 #### 方法特点 DEIM 使用了多种先进的技术来增强其实时性和准确性。具体而言,它利用 **Mosaic** 和 **MixUp** 技术增加了数据集中目标的数量并加速了训练过程中的收敛速度[^2]。这些技术不仅能够提高模型对于复杂场景的理解能力,还能够在一定程度上缓解过拟合问题。 此外,DEIM 还特别强调与其他高性能模型(如 RT-DETR 和 D-FINE)的集成效果。例如,当与 RT-DETRv2 集成时,仅需一天的时间即可在 NVIDIA 4090 GPU 上实现高达 53.2% 的 AP 值;而在较低端硬件(如 NVIDIA T4 GPU)上运行时,也能保持较高的帧率 (FPS),同时维持出色的检测精度[^3]。 #### 实现细节 为了便于开发者快速部署和测试,官方提供了详细的环境配置指南及相关工具链支持。以下是主要依赖项列表及其版本要求: ```plaintext torch>=2.0.1 torchvision>=0.15.2 faster-coco-eval>=1.6.5 PyYAML tensorboard scipy calflops transformers ``` 上述库文件确保了整个项目可以顺利构建,并为用户提供了一个稳定可靠的开发平台[^4]。与此同时,针对实际应用场景的需求,也附带了一套完整推理脚本供使用者调用。 --- ### 示例代码片段 下面展示的是一个简单的 Python 脚本模板,用于加载预训练权重并对新图像执行预测操作: ```python import torch from models.deim import DEIMModel # 假设这是定义好的模型类 def load_model(weights_path, device='cuda'): model = DEIMModel(pretrained=True).to(device) checkpoint = torch.load(weights_path, map_location=device) model.load_state_dict(checkpoint['model']) return model.eval() if __name__ == "__main__": weights_path = 'path/to/your/pretrained_weights.pth' image_path = 'test_image.jpg' device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') deim_model = load_model(weights_path, device) from PIL import Image img = Image.open(image_path).convert("RGB") # Add preprocessing steps here... with torch.no_grad(): predictions = deim_model(img.unsqueeze(0)) print(predictions) ``` 此段代码演示如何初始化已保存的最佳参数状态字典,并完成基本前向传播计算流程。 ---
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值