文章目录
- 1、(ICLR 2022) ODConv 全维动态卷积
- 2、(CVPR 2023) Partial Convolution 部分卷积
- 3、(ICCV 2023) DSConv 动态蛇形卷积
- 4、(2023) RefConv 重参数化重聚焦卷积
- 5、(CVPR 2023) SCConv 空间通道重建卷积
- 6、(TIP 2020) SlimConv 超薄卷积
- 7、(2023) RFAConv 感受野注意力卷积
- 8、(NeurlPS 2019) CondConv 条件参数卷积
- 9、(CVPR 2019) SKConv 选择性核卷积
- 10、(NeurIPS 2020) Fourier Convolution 快速傅里叶卷积
1、(ICLR 2022) ODConv 全维动态卷积
原文地址:(即插即用模块-Convolution部分) 一、(ICLR 2022) ODConv 全维动态卷积
论文首先分析了现有动态卷积的局限性,论文指出现有的动态卷积方法(如 CondConv 和 DyConv)都是通过学习一个线性组合的多个卷积核及其输入依赖的注意力来提升轻量级 CNN 的准确率,但存在以下局限性:
(1)注意力机制设计粗糙: 它们仅关注卷积核数量的动态性,而忽略了卷积核的空间大小、输入通道数和输出通道数这三个维度,导致无法充分利用卷积核空间。
(2)模型参数量增加: 动态卷积会显著增加模型参数量,从而影响模型大小和效率。
为了缓解这些存在的问题,论文提出一种 全维动态卷积(Omni-dimensional Dynamic Convolution),其核心原理是 多维注意力机制。
Omni-dimensional Dynamic Convolution 结构图:
2、(CVPR 2023) Partial Convolution 部分卷积
原文地址:(即插即用模块-Convolution部分) 二、(CVPR 2023) Partial Convolution 部分卷积
paper:Run, Don’t Walk: Chasing Higher FLOPS for Faster Neural Networks
论文中指出现有网络虽然可以通过降低 FLOPs 来提高速度,但 FLOPs 并不等于实际计算速度,因为内存访问也占用了大量时间。在此之前。深度可分离卷积 (DWConv) 虽然降低了 FLOPs,但增加了内存访问次数,导致计算速度反而下降。因此,需要一种新的算子,既能降低 FLOPs,又能保持较高的计算速度。所以论文提出一种部分卷积(Partial Convolution),PConv 利用特征图中的冗余信息,只对部分输入通道进行卷积操作,而保留其他通道不变。这样可以减少计算冗余和内存访问次数,从而提高计算速度。PConv 的 FLOPs 和内存访问次数都比 DWConv 高,但比常规卷积 (Conv) 低,因此更有效地利用了设备的计算能力。
Partial Convolution 结构图:
3、(ICCV 2023) DSConv 动态蛇形卷积
论文指出了现有的卷积核,包括可变形卷积,无法有效地关注细长的管状结构,这会导致分割结果容易断裂或不完整。
而管状结构的蛇形特征可以提供额外的信息,帮助模型更好地理解其几何结构。所以论文为了更好的检测到这些管状结构,提出了一种 动态蛇形卷积(Dynamic Snake Convolution )。DSConv 通过模拟蛇形运动,动态调整卷积核的位置和形状,使其更好地适应管状结构的细长和弯曲特征。此外,DSConv 通过迭代策略控制卷积核的移动,确保感知区域连续且不会因为变形偏移过大而发散。
DSConv 结构图:
4、(2023) RefConv 重参数化重聚焦卷积
原文地址:(即插即用模块-Convolution部分) 四、(2023) RefConv 重参数化重聚焦卷积
paper:RefConv: Re-parameterized Refocusing Convolution for Powerful ConvNets
论文首先分析了传统卷积神经网络 (CNN) 存在的一些短板,如性能的提升主要依赖于精心设计的模型结构和微组件。然而,这些设计通常需要引入额外的推理成本。所以,这篇论文中引入了一种 重参数化重聚焦卷积(Re-parameterized Refocusing Convolution),其通过利用预训练参数中编码的表示作为先验并重新聚焦于它们来学习新的表示来增强现有模型结构的先验,从而进一步增强预训练模型的表示能力。RefConv 的目标是通过增强现有结构的先验知识来提升 CNN 的性能,而不改变模型结构或引入额外的推理成本。
RefConv 结构图:
5、(CVPR 2023) SCConv 空间通道重建卷积
原文地址:(即插即用模块-Convolution部分) 五、(CVPR 2023) SCConv 空间通道重建卷积
paper:SCConv: Spatial and Channel Reconstruction Convolution for Feature Redundancy
由于现有的 CNN 模型中存在的特征冗余问题,传统的卷积操作会产生大量冗余的特征,这会导致模型计算量和存储空间的需求增加。为了解决这个问题,论文提出了一种 空间通道重建卷积(Spatial and Channel reconstruction Convolution),通过联合减少空间和通道冗余,在降低模型复杂度和计算成本的同时,提升模型的性能。SCConv 由两个部件组成:空间重构单元(SRU)和通道重构单元(CRU)。
SCConv 结构图:
6、(TIP 2020) SlimConv 超薄卷积
原文地址:(即插即用模块-Convolution部分) 六、(TIP 2020) SlimConv 超薄卷积
paper:SlimConv: Reducing Channel Redundancy in Convolutional Neural Networks by Weights Flipping
为了解决卷积神经网络 (CNN) 中特征图通道冗余的问题,通道冗余是指特征图中的通道包含大量重复或相似的信息,这不仅导致模型体积庞大,还可能影响模型的泛化能力。论文提出一种 超薄卷积 SlimConv ,其主要目标是从而在保持模型性能的同时减少模型大小和计算成本。
SlimConv 的核心思想是通过将特征图通道进行重新组织和压缩来减少冗余。具体来说,将特征图拆分为两部分,分别进行加权求和和特征转换,最后将两部分特征融合。
SlimConv 结构图
7、(2023) RFAConv 感受野注意力卷积
原文地址:(即插即用模块-Convolution部分) 七、(2023) RFAConv 感受野注意力卷积
paper:RFAConv: Innovating Spatial Attention and Standard Convolutional Operation
在传统卷积操作中,每个感受野都使用相同的卷积核参数,无法区分不同位置的信息差异,这都限制了网络性能。此外,由于空间注意力以及现有空间注意力机制的局限性,虽然能够突出关键特征,但由于只关注空间特征,所以无法有效解决大尺寸卷积核的参数共享问题。由此,这篇论文提出一种感受野注意力卷积 RFAConv(Receptive-Field Attention Convolution)。旨在解决传统卷积操作中参数共享导致的局限性,并通过关注感受野的空间特征来进一步提升网络性能。
RFAConv 结构图:
8、(NeurlPS 2019) CondConv 条件参数卷积
原文地址:(即插即用模块-Convolution部分) 八、(NeurlPS 2019) CondConv 条件参数卷积
paper:CondConv: Conditionally Parameterized Convolutions for Efficient Inference
Code:https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet/condconv
现有的卷积神经网络(CNN)通常假设卷积核在所有输入数据上共享,这限制了模型的容量和性能,尤其是在需要高精度但计算资源有限的情况下。而且为了提高模型容量,通常需要增加卷积层数或扩大卷积核大小,这将导致计算成本成比例增加,不利于推理效率。所以,这篇论文提出一种 条件参数卷积(Conditionally Parameterized Convolutions)。CondConv 通过增加专家数量来提高模型容量。除此之外,CondConv 可以学习到更具区分度的卷积核,从而提高模型的准确率。
CondConv 结构图:
9、(CVPR 2019) SKConv 选择性核卷积
原文地址:(即插即用模块-Convolution部分) 九、(CVPR 2019) SKConv 选择性核卷积
在传统的卷积神经网络 (CNN) 中,每层神经元感受野 (Receptive Field) 的大小是固定的,这限制了网络对不同尺度目标的适应性。而人脑视觉皮层神经元感受野大小会根据刺激内容自适应调整,这启发后续研究中更为灵活的卷积操作。为此,这篇论文提出一种 选择性核卷积(Selective Kernel Convolution)。
SKConv 结构:
10、(NeurIPS 2020) Fourier Convolution 快速傅里叶卷积
原文地址:(即插即用模块-Convolution部分) 十、(NeurIPS 2020) Fourier Convolution 快速傅里叶卷积
paper:Fast Fourier Convolution
为了解决现有的局部感受野的局限性,即 现有的 CNN 模型大多采用小尺寸卷积核,导致感受野较小,难以捕捉图像中相距较远的特征信息,这对于需要全局上下文的任务(如人体姿态估计)来说是不够的。所以,这篇论文通过分析跨尺度融合的重要性,认识到CNN 中不同层次的特征图包含不同尺度的信息,跨尺度融合可以有效利用这些互补信息,提升模型的表达能力。进而提出一中 快速傅里叶卷积(Fast Fourier Convolution)。旨在解决现有卷积神经网络 (CNN) 中局部感受野和跨尺度融合的局限性,从而提升模型在各类视觉任务上的表现。
Fourier Convolution 结构图: