RT-DETR改进策略【卷积层】| ECCV-2024 小波卷积WTConv 增大感受野,降低参数量计算量,独家创新助力涨点

一、本文介绍

本文记录的是利用小波卷积WTConv模块优化RT-DETR的目标检测网络模型WTConv的目的是在不出现过参数化的情况下有效地增加卷积的感受野,从而解决了CNN在感受野扩展中的参数膨胀问题。本文将其加入到深度可分离卷积中,有效降低模型参数量和计算量,并二次创新使模块更好地捕捉低频特征,增强网络性能。


专栏目录:RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进

专栏地址:RT-DETR改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!


二、小波卷积WTConv介绍

Wavelet Convolutions for Large Receptive Fields

2.1 出发点

  • 解决卷积核增大的问题:在卷积神经网络(CNNs)中,为了模仿视觉Transformer(ViTs)自注意力块的全局感受野,尝试增加卷积核大小,但这种方法在达到全局感受野之前就遇到了上限并饱和,且会导致过参数化。
  • 利用信号处理工具:思考能否利用信号处理工具在不出现过参数化的情况下有效地增加卷积的感受野,从而提出利用小波变换(Wavelet Transform,WT)来解决该问题。

在这里插入图片描述

2.2 原理

2.2.1 基于小波变换的卷积操作

  • 小波变换的卷积表示:采用Haar小波变换(Haar WT),它在一个空间维度(宽度或高度)上的一级变换可通过特定的深度卷积核和下采样操作实现。例如,在2D情况下,使用一组特定的四个滤波器进行深度卷积操作,这些滤波器包括一个低通滤波器
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Limiiiing

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值