UP-DETR:基于Transformers的无监督目标检测预训练项目

UP-DETR:基于Transformers的无监督目标检测预训练项目

up-detr [TPAMI 2022 & CVPR2021 Oral] UP-DETR: Unsupervised Pre-training for Object Detection with Transformers up-detr 项目地址: https://gitcode.com/gh_mirrors/up/up-detr

UP-DETR(Unsupervised Pre-training for Object Detection with Transformers)是一个利用Transformers进行无监督目标检测预训练的开源项目。该项目主要使用Python编程语言实现。

项目基础介绍

UP-DETR项目是IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI) 2022以及CVPR2021的一个oral论文的官方PyTorch实现。该项目通过引入一种名为“随机查询补丁检测”的新颖预训练任务,对Transformers进行目标检测的预训练。UP-DETR继承了DETR的架构,包括相同的ResNet-50主干网络、Transformer编码器、解码器以及代码库。通过无监督预训练,UP-DETR在无需任何人工标注的情况下完成了整个预训练过程,并在COCO数据集上实现了43.1 AP的检测结果。

核心功能

UP-DETR的核心功能包括:

  1. 无监督预训练:通过随机查询补丁检测任务进行Transformers的预训练,无需人工标注数据。
  2. 目标检测:在COCO数据集上进行了微调后的UP-DETR模型能够进行有效的目标检测。
  3. 模型扩展性:UP-DETR模型还可以扩展到全景分割任务。

最近更新的功能

该项目最近的更新主要包括以下内容:

  • 优化了训练流程,提高了训练效率和模型性能。
  • 移除了在开源版本中证明无帮助的对象查询混洗功能。
  • 提供了一个在Colab上的可视化笔记本,用于展示如何使用预训练模型进行查询补丁检测(无需任何微调)。

UP-DETR项目为无监督目标检测领域提供了有力的工具和框架,具有很高的研究价值和实际应用潜力。

up-detr [TPAMI 2022 & CVPR2021 Oral] UP-DETR: Unsupervised Pre-training for Object Detection with Transformers up-detr 项目地址: https://gitcode.com/gh_mirrors/up/up-detr

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

成婕秀Timothy

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值