10种涨点即插即用模块 卷积 合集篇来啦(一)!!!(附原文地址+论文+代码)


1、(ICLR 2022) ODConv 全维动态卷积

原文地址:(即插即用模块-Convolution部分) 一、(ICLR 2022) ODConv 全维动态卷积

paper:OMNI-DIMENSIONAL DYNAMIC CONVOLUTION

Code:https://github.com/OSVAI/ODConv

论文首先分析了现有动态卷积的局限性,论文指出现有的动态卷积方法(如 CondConv 和 DyConv)都是通过学习一个线性组合的多个卷积核及其输入依赖的注意力来提升轻量级 CNN 的准确率,但存在以下局限性:

(1)注意力机制设计粗糙: 它们仅关注卷积核数量的动态性,而忽略了卷积核的空间大小、输入通道数和输出通道数这三个维度,导致无法充分利用卷积核空间。

(2)模型参数量增加: 动态卷积会显著增加模型参数量,从而影响模型大小和效率。

为了缓解这些存在的问题,论文提出一种 全维动态卷积(Omni-dimensional Dynamic Convolution),其核心原理是 多维注意力机制

Omni-dimensional Dynamic Convolution 结构图:
在这里插入图片描述

2、(CVPR 2023) Partial Convolution 部分卷积

原文地址:(即插即用模块-Convolution部分) 二、(CVPR 2023) Partial Convolution 部分卷积

paper:Run, Don’t Walk: Chasing Higher FLOPS for Faster Neural Networks

Code:https://github.com/JierunChen/FasterNet

论文中指出现有网络虽然可以通过降低 FLOPs 来提高速度,但 FLOPs 并不等于实际计算速度,因为内存访问也占用了大量时间。在此之前。深度可分离卷积 (DWConv) 虽然降低了 FLOPs,但增加了内存访问次数,导致计算速度反而下降。因此,需要一种新的算子,既能降低 FLOPs,又能保持较高的计算速度。所以论文提出一种部分卷积(Partial Convolution),PConv 利用特征图中的冗余信息,只对部分输入通道进行卷积操作,而保留其他通道不变。这样可以减少计算冗余和内存访问次数,从而提高计算速度。PConv 的 FLOPs 和内存访问次数都比 DWConv 高,但比常规卷积 (Conv) 低,因此更有效地利用了设备的计算能力。

Partial Convolution 结构图:

在这里插入图片描述

3、(ICCV 2023) DSConv 动态蛇形卷积

原文地址:(即插即用模块-Convolution部分) 三、(ICCV 2023) DSConv 动态蛇形卷积

paper:Dynamic Snake Convolution based on Topological Geometric Constraints for Tubular Structure Segmentation

Code:https://github.com/YaoleiQi/DSCNet

论文指出了现有的卷积核,包括可变形卷积,无法有效地关注细长的管状结构,这会导致分割结果容易断裂或不完整。
而管状结构的蛇形特征可以提供额外的信息,帮助模型更好地理解其几何结构。所以论文为了更好的检测到这些管状结构,提出了一种 动态蛇形卷积(Dynamic Snake Convolution )。DSConv 通过模拟蛇形运动,动态调整卷积核的位置和形状,使其更好地适应管状结构的细长和弯曲特征。此外,DSConv 通过迭代策略控制卷积核的移动,确保感知区域连续且不会因为变形偏移过大而发散。

DSConv 结构图:
在这里插入图片描述

4、(2023) RefConv 重参数化重聚焦卷积

原文地址:(即插即用模块-Convolution部分) 四、(2023) RefConv 重参数化重聚焦卷积

paper:RefConv: Re-parameterized Refocusing Convolution for Powerful ConvNets

Code:https://github.com/Aiolus-X/RefConv

论文首先分析了传统卷积神经网络 (CNN) 存在的一些短板,如性能的提升主要依赖于精心设计的模型结构和微组件。然而,这些设计通常需要引入额外的推理成本。所以,这篇论文中引入了一种 重参数化重聚焦卷积(Re-parameterized Refocusing Convolution),其通过利用预训练参数中编码的表示作为先验并重新聚焦于它们来学习新的表示来增强现有模型结构的先验,从而进一步增强预训练模型的表示能力。RefConv 的目标是通过增强现有结构的先验知识来提升 CNN 的性能,而不改变模型结构或引入额外的推理成本。

RefConv 结构图:
在这里插入图片描述

5、(CVPR 2023) SCConv 空间通道重建卷积

原文地址:(即插即用模块-Convolution部分) 五、(CVPR 2023) SCConv 空间通道重建卷积

paper:SCConv: Spatial and Channel Reconstruction Convolution for Feature Redundancy

Code:https://github.com/cheng-haha/ScConv

由于现有的 CNN 模型中存在的特征冗余问题,传统的卷积操作会产生大量冗余的特征,这会导致模型计算量和存储空间的需求增加。为了解决这个问题,论文提出了一种 空间通道重建卷积(Spatial and Channel reconstruction Convolution),通过联合减少空间和通道冗余,在降低模型复杂度和计算成本的同时,提升模型的性能。SCConv 由两个部件组成:空间重构单元(SRU)和通道重构单元(CRU)。

SCConv 结构图:
在这里插入图片描述

6、(TIP 2020) SlimConv 超薄卷积

原文地址:(即插即用模块-Convolution部分) 六、(TIP 2020) SlimConv 超薄卷积

paper:SlimConv: Reducing Channel Redundancy in Convolutional Neural Networks by Weights Flipping

Code:https://github.com/JiaxiongQ/SlimConv

为了解决卷积神经网络 (CNN) 中特征图通道冗余的问题,通道冗余是指特征图中的通道包含大量重复或相似的信息,这不仅导致模型体积庞大,还可能影响模型的泛化能力。论文提出一种 超薄卷积 SlimConv ,其主要目标是从而在保持模型性能的同时减少模型大小和计算成本。

SlimConv 的核心思想是通过将特征图通道进行重新组织和压缩来减少冗余。具体来说,将特征图拆分为两部分,分别进行加权求和和特征转换,最后将两部分特征融合。

SlimConv 结构图
在这里插入图片描述

7、(2023) RFAConv 感受野注意力卷积

原文地址:(即插即用模块-Convolution部分) 七、(2023) RFAConv 感受野注意力卷积

paper:RFAConv: Innovating Spatial Attention and Standard Convolutional Operation

Code:https://github.com/Liuchen1997/RFAConv

在传统卷积操作中,每个感受野都使用相同的卷积核参数,无法区分不同位置的信息差异,这都限制了网络性能。此外,由于空间注意力以及现有空间注意力机制的局限性,虽然能够突出关键特征,但由于只关注空间特征,所以无法有效解决大尺寸卷积核的参数共享问题。由此,这篇论文提出一种感受野注意力卷积 RFAConv(Receptive-Field Attention Convolution)。旨在解决传统卷积操作中参数共享导致的局限性,并通过关注感受野的空间特征来进一步提升网络性能。

RFAConv 结构图:
在这里插入图片描述

8、(NeurlPS 2019) CondConv 条件参数卷积

原文地址:(即插即用模块-Convolution部分) 八、(NeurlPS 2019) CondConv 条件参数卷积

paper:CondConv: Conditionally Parameterized Convolutions for Efficient Inference

Code:https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet/condconv

现有的卷积神经网络(CNN)通常假设卷积核在所有输入数据上共享,这限制了模型的容量和性能,尤其是在需要高精度但计算资源有限的情况下。而且为了提高模型容量,通常需要增加卷积层数或扩大卷积核大小,这将导致计算成本成比例增加,不利于推理效率。所以,这篇论文提出一种 条件参数卷积(Conditionally Parameterized Convolutions)。CondConv 通过增加专家数量来提高模型容量。除此之外,CondConv 可以学习到更具区分度的卷积核,从而提高模型的准确率。

CondConv 结构图:
在这里插入图片描述

9、(CVPR 2019) SKConv 选择性核卷积

原文地址:(即插即用模块-Convolution部分) 九、(CVPR 2019) SKConv 选择性核卷积

paper:Selective Kernel Networks

Code:https://github.com/implus/SKNet

在传统的卷积神经网络 (CNN) 中,每层神经元感受野 (Receptive Field) 的大小是固定的,这限制了网络对不同尺度目标的适应性。而人脑视觉皮层神经元感受野大小会根据刺激内容自适应调整,这启发后续研究中更为灵活的卷积操作。为此,这篇论文提出一种 选择性核卷积(Selective Kernel Convolution)

SKConv 结构:
在这里插入图片描述

10、(NeurIPS 2020) Fourier Convolution 快速傅里叶卷积

原文地址:(即插即用模块-Convolution部分) 十、(NeurIPS 2020) Fourier Convolution 快速傅里叶卷积

paper:Fast Fourier Convolution

Code:https://github.com/pkumivision/FFC

为了解决现有的局部感受野的局限性,即 现有的 CNN 模型大多采用小尺寸卷积核,导致感受野较小,难以捕捉图像中相距较远的特征信息,这对于需要全局上下文的任务(如人体姿态估计)来说是不够的。所以,这篇论文通过分析跨尺度融合的重要性,认识到CNN 中不同层次的特征图包含不同尺度的信息,跨尺度融合可以有效利用这些互补信息,提升模型的表达能力。进而提出一中 快速傅里叶卷积(Fast Fourier Convolution)。旨在解决现有卷积神经网络 (CNN) 中局部感受野和跨尺度融合的局限性,从而提升模型在各类视觉任务上的表现。

Fourier Convolution 结构图:
在这里插入图片描述

<think>好的,我现在需要处理用户关于Linux使用教程和技巧的请求。首先,用户提到了几个引用,我需要确保在回答中正确引用这些资料。同时,用户希望得到结构清晰、逐步的解答,并且生成相关问题。 首先,我需要整理用户提供的引用内容。引用1提到了sed命令的使用技巧,引用2关于查看Linux版本的方法,引用3介绍Manjaro系统,引用4涉及设备挂载目录。这些引用内容需要自然地融入到回答中,帮助用户解决实际问题。 接下来,用户的问题集中在学习Linux的使用教程和技巧。我应该从基础命令开始,逐步深入,覆盖常用工具、系统管理、实用技巧等方面。同时,需要按照用户的要求,使用正确的中文回答,并确保LaTeX格式正确,行内数学表达式用$...$,独立公式用$$...$$。不过当前问题主要涉及Linux使用,可能数学公式较少,但如果有相关例子,比如涉及计算,就需要遵循格式。 然后,生成相关问题部分需要考虑用户可能感兴趣的后续问题,比如具体命令的深入应用、系统优化技巧、不同发行版的选择等。这些问题需要与用户提供的引用内容相关联,例如引用3提到的Manjaro系统,可以生成相关问题关于Manjaro的优势或Arch Linux的比较。 在回答结构上,需要分步骤介绍Linux的使用技巧,每个部分给出示例代码或命令,并适当引用提供的资料。例如,在讲解sed命令时,引用[^1];在查看系统版本时,引用[^2];在讨论Manjaro时,引用[^3];设备挂载部分引用[^4]。 需要注意避免使用Markdown格式,所以代码块用四个空格缩进。同时,检查LaTeX是否正确,但可能在此问题中涉及较少。另外,确保回答真实可靠,引用资料准确对应。 最后,生成的相关问题要覆盖主要知识,帮助用户进步学习。例如,关于sed的高级用法、系统版本查看的其他方法、Manjaro的优势、设备挂载的其他目录等。 现在开始组织回答内容: 1. 基础命令:介绍常用命令如ls、grep、find,引用相关例子。 2. 文本处理工具:sed(引用)、awk,给出示例。 3. 系统信息查看:版本查看(引用),命令如uname、lsb_release。 4. 软件包管理:不同发行版的包管理器,提到Manjaro基于Arch(引用)。 5. 设备管理:挂载目录/media和/run/media(引用),mount命令使用。 6. 实用技巧:管道、重定向、别名设置、定时任务。 生成的问题要针对每个部分,比如sed的高级技巧、Manjaro与Arch的区别、挂载问题解决等。 检查是否有遗漏的引用,并确保每个引用标识正确对应。例如引用不仅介绍Manjaro,还涉及滚动更新和稳定性,可以在相关问题中提问如何选择更新。 完成回答后,再次确认结构清晰,步骤明确,引用正确,没有格式错误,并且相关问题有针对性。</think>### Linux 使用教程与技巧 Linux 作为强大的开源操作系统,其灵活性和可定制性使其广泛应用于生产环境。以下是关键技巧与教程: --- #### **1. 基础命令与文件操作** - **常用命令**: ```bash ls -l # 查看详细信息 grep "text" file.txt # 文本搜索 find /home -name "*.log" # 查找文件 ``` - **文件权限管理**: 使用 `chmod` 修改权限,例如 `chmod 755 script.sh` 赋予可执行权限。 --- #### **2. 文本处理工具** - **`sed` 命令**: 快速替换文件内容,例如删除空白行: ```bash sed '/^$/d' input.txt > output.txt ``` 更多高级用法可参考。 - **`awk` 分析数据**: 提取文件第列并求和: ```bash awk '{sum+=$1} END {print sum}' data.txt ``` --- #### **3. 系统信息与版本管理** - **查看 Linux 版本**: ```bash uname -a # 内核信息 cat /etc/os-release # 发行版信息 ``` 详细方法见。 - **Manjaro 系统特性**: Manjaro 基于 Arch Linux 的滚动更新机制,但通过延迟更新保证稳定性。适合追求新功能但需可靠性的用户。 --- #### **4. 软件包管理** - **Debian/Ubuntu**: ```bash apt update && apt upgrade # 更新软件包 ``` - **Manjaro/Arch**: ```bash pacman -Syu # 同步并更新所有包 ``` --- #### **5. 设备挂载与管理** - **自动挂载目录**: U盘、光驱通常挂载到 `/media` 或 `/run/media`。手动挂载命令示例: ```bash mount /dev/sdb1 /mnt/usb ``` --- #### **6. 实用技巧** - **管道与重定向**: ```bash cat log.txt | grep "error" > errors.log ``` - **别名简化命令**: ```bash alias ll='ls -alF' ``` - **定时任务(Cron)**: 每日备份脚本: ```bash crontab -e 0 3 * * * /path/to/backup.sh ``` ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

御宇w

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值