💡 RT-DETR改进有效系列目录 💡
前言
Hello,各位读者们好
-
Hello,各位读者,距离第一天发RT-DETR的博客已经过去了接近两个月,这段时间里我深入的研究了一下RT-DETR在ultralytics仓库的使用,旨在为大家解决为什么用v8的仓库训练的时候模型不收敛,精度差的离谱的问题,我也是成功的找到了解决方案,对于ultralytics仓库进行多处改进从而让其还原RT-DETR官方的实验环境从而达到一比一的效果。
- 同时本人一些讲解视频和包含我所有创新的RT-DETR文档并不能在优快云上传(所有的创新点都经过我的测试是可用的,得到该文件之后大家可以随意组合使用),所以会建立群的形式在内上传我的文件和视频我也会在群内不定期和大家交流回答大家问题,同时定期会更新一些文章的创新点(经过我融合测试后的,先到先得)。
专栏介绍
- 本专栏持续更新网络上的所有前沿文章,也包含过去的所有改进机制(大家有感兴趣的机制都可以私聊我我会给大家更新),过去的改进机制并不一定就比新的机制效果差。
- 专栏会一直持续更新,在新的一年里每周更新3-10篇创新机制,持续复习最新的文章内容,订阅了本专栏之后,寻找和创新的工作我来,解放大家的70%的时间,文章发到手软。
-
专栏改进基于ResNet18、ResNet34、ResNet50、ResNet101以及HGNet版本进行(不同于现在仓库里更新的R50和R101我是根据RT-DETR官方的代码一比一移植过来的参数量基本保持一致,网上发的都是ResNet的本身,但这和RT-DETR官方实验的版本其实是有很大的出入的)
目前专栏改进机制:70 (全网最全) | 最新更新时间2025/3/12 | 本周更新1篇
下面是大家购买专栏进群内能够获得的文件部分文件截图(优快云上提供完整文件的本专栏为独一份),这些代码我已经全部配置好并注册在模型内大家只需要运行yaml文件即可,群内有我的录制的讲解视频,教大家如何去修改和融合模型,同时大家也可以自己进行组合,总有一种适合你的数据集,让大家成功写出论文(现阶段RT-DETR发表论文难度非常低轻量化的方向非常好发)。
拥有这个文件RT-DETR你就可以一网打尽。
本专栏平均质量分96,在优快云改进机制大于50种以上的专栏为独一份,充分说明本专栏的质量。
项目环境如下
- 解释器:Python:3.9.7
- 框架:Pytorch:1.12.1
- 系统:Windows11
- IDEA:Pycharm
👑 RT-DETR有效改进系列目录(持续更新) 👑
💡试读文章💡
- (一):详解RT-DETR网络结构/数据集获取/环境搭建/训练/推理/验证/导出/部署
- (二): RT-DETR论文阅读笔记(包括YOLO版本训练和官方版本训练)
- (三):【RT-DETR训练性能评估指标】结果文件分析 | mAP、Precision、Recall、FPS、IoU (科研必备)
- (四):【RT-DETR有效改进】轻量级下采样方法ContextGuided(参数量下降700W,轻量又涨点)
💡必读文章(改进必备)💡
- (一):【RT-DETR有效改进】手把手带你调参RT-DETR,复现官方版本实验环境
- (二):【RT-DETR改进涨点】ResNet18、34、50、101等多个版本移植到ultralytics仓库(RT-DETR官方一比一移植)
💡基础篇💡
- (一):详解RT-DETR网络结构/数据集获取/环境搭建/训练/推理/验证/导出/部署
- (二): RT-DETR论文阅读笔记(包括YOLO版本训练和官方版本训练)
- (三):利用恒源云在云端租用GPU服务器训练RT-DETR模型(包括Linux系统命令讲解)
- (四):【RT-DETR训练性能评估指标】结果文件分析 | mAP、Precision、Recall、FPS、IoU (科研必备)
- (五):【RT-DETR有效改进】带你分析如何确定改进的基础模型,解决模型无法收敛精度很差的问题(ResNet官方一比一复现)
- (六):【RT-DETR有效改进】为什么YOLO版本的RT-DETR训练模型不收敛精度差的问题
- (七):【RT-DETR有效改进】手把手带你调参RT-DETR,复现官方版本实验环境
- (八):【RT-DETR改进涨点】ResNet18、34、50、101等多个版本移植到ultralytics仓库(RT-DETR官方一比一移植)
- (九):【RT-DETR有效改进】可视化热力图 | 支持自定义模型、置信度选择等功能(论文必备)
- (十):【RT-DETR有效改进】计算训练好权重文件对应的FPS、推理每张图片的平均时间(科研必备)
- (十一):超详细教程YoloV8官方推荐免费数据集网站Roboflow一键导出Voc、COCO、Yolo、Csv等格式
💡BottleNeck/BasicBlock/主干卷积/RepC3——Conv篇💡
本部分的改进为ResNet中的两个模块深度改进,同时也支持主干上的即插即用,全网仅一份!
- (一):【RT-DETR有效改进】利用YOLO-MS的MSBlock模块改进ResNet中的Bottleneck(RT-DETR深度改进)
- (二):【RT-DETR有效改进】轻量级下采样方法ContextGuided(参数量下降700W,轻量又涨点)
- (三):【RT-DETR有效改进】重参数化模块DiverseBranchBlock助力特征提取(附代码 + 修改教程)
- (四):【RT-DETR有效改进】利用FasterNet的FasterBlock改进特征提取网络(高效的推理速度和FPS)
- (五):【RT-DETR有效改进】利用YOLOv9的GELAN模块替换RepC3结构(附轻量化版本 + 高效涨点版本 + 手撕结构图)
- (六):【RT-DETR有效改进】全新的SOATA轻量化下采样操作ADown(轻量又涨点,附手撕结构图)
- (七):【RT-DETR有效改进】Conv篇 | 最新轻量化自适应提取模块LAE助力边缘设备部署计算(附代码 + 修改教程 + 运行教程)
- (八):【RT-DETR有效改进】2024最新ECCV最新大感受野的小波卷积WTConv二次创新RepC3
💡BottleNeck/BasicBlock/主干注意力——注意力篇💡
本部分的改进为ResNet中的两个模块深度改进,同时也支持主干上的即插即用,全网仅一份!
- (一):【RT-DETR有效改进】利用SENetV1重构化网络结构 (ILSVRC冠军得主)
- (二):【RT-DETR有效改进】利用SENetV2重构化网络结构 (ILSVRC冠军得主,全网独家首发)
- (三):【RT-DETR有效改进】利用EMAttention加深网络深度提高模型特征提取能力(特征选择模块)
- (四):【RT-DETR有效改进】注意力与卷积的高效融合 | ACmix自注意力与卷积混合模型
- (五):【RT-DETR有效改进】可变形大核注意力 | Deformable-LKA适用于复杂背景或不同光照场景
- (六):【RT-DETR有效改进】中科院一区 | MSDA多尺度空洞注意力改善模型特征提取能力(特征选择模块)
- (七):【RT-DETR有效改进】双层路由注意力机制 | 适合多种检测场景的BiFormer(Bi-level Routing Attention)
- (八):【RT-DETR有效改进】可变形大核注意力 | Deformable-LKA适用于复杂背景或不同光照场景
- (九):【RT-DETR有效改进】大核注意力 | LSKAttention助力极限涨点(附代码 + 修改教程)
- (十):【RT-DETR有效改进】Best Paper | DAttention (DAT)可变形注意力机制和动态采样点
- (十一):【RT-DETR有效改进】 多维度注意力机制 | TripletAttention三重立体特征选择模块
- (十二):【RT-DETR有效改进】 添加注意力篇 | 2024最新的空间和通道协同注意力模块SCSA改进RT-DETR有效涨点
💡主干篇💡
- (一):【RT-DETR有效改进】轻量级视觉变换器RepViT改进特征提取网络(轻量化网络)
- (二):【RT-DETR有效改进】移动设备网络ShuffleNetV1(超轻量化网络主干)
- (三):【RT-DETR有效改进】华为最新VanillaNet主干替换Backbone实现大幅度涨点
- (四):【RT-DETR有效改进】轻量化CNN网络MobileNetV1改进特征提取网络
- (五):【RT-DETR有效改进】轻量化CNN网络MobileNetV2改进特征提取网络
- (六):【RT-DETR有效改进】轻量级网络ShuffleNetV2(附代码+修改教程)
- (七):【RT-DETR有效改进】利用MobileNetV3替换Backbone(轻量化网络结构,提点)
- (八):【RT-DETR有效改进】华为 | Ghostnetv1一种专为移动端设计的特征提取网络
- (九):【RT-DETR有效改进】Google | EfficientNetV1一种超轻量又高效的网络 (附代码 + 添加教程)
- (十):【RT-DETR有效改进】华为 | GhostnetV2移动端的特征提取网络效果完爆MobileNet系列
- (十一):【RT-DETR有效改进】Google | EfficientNetV2一种超轻量又高效的网络 (轻量化网络)
- (十二):【RT-DETR有效改进】遥感旋转网络 | LSKNet动态的空间感受野网络(轻量又提点)
- (十三):【RT-DETR有效改进】 EfficientViT高效的特征提取网络完爆MobileNet系列(轻量化网络结构)
- (十四):【RT-DETR有效改进】 SwinTransformer替换Backbone(附代码 + 详细修改步骤 +原理介绍)
- (十五):【RT-DETR有效改进】轻量化ConvNeXtV2全卷积掩码自编码器网络
- (十六):【RT-DETR有效改进】2023.12月份最新成果TransNeXt像素聚焦注意力主干(全网首发)
- (十七):【RT-DETR有效改进】交叉形窗口网络 | CSWinTransformer(附代码 + 修改教程)
- (十八):【RT-DETR有效改进】FasterNet一种跑起来的主干网络( 提高FPS和检测效率)
- (十九):【RT-DETR有效改进】12月最新成果 | UniRepLknet特征提取网络(附对比试验效果图)
- (二十):【RT-DETR有效改进】 RevColV1可逆列网络(特征解耦助力小目标检测)
- (二十一):【RT-DETR有效改进】EfficientFormerV2移动设备优化的视觉网络(附对比试验效果图)
(二十二):【RT-DETR有效改进】反向残差块网络EMO | 一种轻量级的CNN架构(轻量化网络,参数量下降约700W)- (二十三):【RT-DETR改进涨点】ResNet18、34、50、101等多个版本移植到ultralytics仓库(RT-DETR官方一比一移植)
- (二十四):【RT-DETR有效改进】 主干篇 | 2024.5全新的移动端网络MobileNetV4改进RT-DETR(含MobileNetV4全部版本改进)
💡Neck篇💡
- (一):【RT-DETR有效改进】Slim-Neck替换特征融合层实现超级涨点 (轻量又涨点)
- (二):【RT-DETR有效改进】2024.1最新MFDS-DETR的HS-FPN改进特征融合层(降低100W参数,全网独家首发)
- (三):【RT-DETR有效改进】Bi-FPN高效的双向特征金字塔网络(附yaml文件+完整代码)
- (四):【RT-DETR有效改进】 利用Damo-YOLO的RepGFPN改进特征融合层(高效重参数化Neck)
- (五):【RT-DETR有效改进】 | Neck篇 | 利用ASF-YOLO改进特征融合层(适用于分割和目标检测)
💡损失函数篇💡
- (一):【RT-DETR有效改进】SIoU、GIoU、CIoU、DIoU、WIoU等多种损失函数
- (二):【RT-DETR有效改进】InnerIoU思想结合传统 EIoU、SIoU、WIoU损失思想(小目标涨点效果明显)
- (三):【RT-DETR有效改进】ShapeIoU、InnerShapeIoU关注边界框本身的IoU(包含二次创新)
- (四):【RT-DETR改进涨点】MPDIoU、InnerMPDIoU损失函数中的No.1(包含二次创新)
- (五):【RT-DETR改进涨点】更加聚焦的边界框损失Focaler-IoU、InnerFocalerIoU(二次创新)
- (六):【RT-DETR有效改进】高质量的目标检测边界框回归损失函数Unified-IoU(设置动态epoch参数)
💡细节创新篇💡
- (一):【RT-DETR有效改进】CARAFE提高精度的上采样方法(助力细节长点)
- (二):【RT-DETR有效改进】 DySample一种超级轻量的动态上采样算子(上采样中的No.1)
- (三):【RT-DETR有效改进】 UNetv2提出的一种SDI多层次特征融合模块(细节高效涨点)
- (四):【RT-DETR有效改进】最新双时相特征聚合模块BFAM助力RT-DETR有效涨点(二次创新RepC3全网独家首发)
💡独家创新篇💡
💡进阶实战篇💡