AICurator
https://mbd.pub/o/author-aWaWmHBoZA==/work
展开
-
UNET改进71:添加自研LEGM模块|
本文提出了一种双任务协同互促框架,用于从单张模糊图像中恢复清晰图像。该框架通过整合深度估计和去雾任务,实现了两者性能的相互提升。具体步骤包括:1)新建blocks/legm.py文件,添加相关代码;2)在连接处添加注意力机制;3)在卷积层中添加注意力机制;4)在train.py中进行训练。实验结果表明,该方法在去雾任务中优于现有最先进的方法。原创 2025-05-10 10:55:55 · 217 阅读 · 0 评论 -
UNET改进70:添加自研EfficientViMBlock_CGLU模块|双任务协作相互促进框架
从一张模糊图像中恢复清晰图像是一个开放的逆问题。尽管已取得显著的研究进展,但大多数现有方法忽略了下游任务对上游去雾过程的促进作用。从雾生成机制的角度来看,场景的深度信息与模糊图像之间存在潜在关系。基于此,我们提出了一种双任务协作相互促进框架,以实现单张图像的去雾。该框架通过双任务交互机制整合了深度估计和去雾,并实现了它们性能的相互增强。为了实现这两个任务的联合优化,开发了一种具有差异感知的替代实现机制。一方面,提出了去雾结果深度图与理想图像深度图之间的差异感知,以促使去雾网络关注去雾的非理想区域。原创 2025-05-03 13:52:41 · 95 阅读 · 0 评论 -
UNET改进69:添加EfficientViMBlock模块|双任务协作相互促进框架
从一张模糊图像中恢复清晰图像是一个开放的逆问题。尽管已取得显著的研究进展,但大多数现有方法忽略了下游任务对上游去雾过程的促进作用。从雾生成机制的角度来看,场景的深度信息与模糊图像之间存在潜在关系。基于此,我们提出了一种双任务协作相互促进框架,以实现单张图像的去雾。该框架通过双任务交互机制整合了深度估计和去雾,并实现了它们性能的相互增强。为了实现这两个任务的联合优化,开发了一种具有差异感知的替代实现机制。一方面,提出了去雾结果深度图与理想图像深度图之间的差异感知,以促使去雾网络关注去雾的非理想区域。原创 2025-05-03 13:45:52 · 490 阅读 · 0 评论 -
UNET改进68:添加RepHMS模块|根据目标大小动态调整尺度
由于路径聚合特征金字塔网络(PAFPN)具有有效的多尺度特征融合能力,它已成为基于 YOLO 的检测器中广泛采用的组件。然而,PAFPN 在整合高层语义线索与低层空间细节方面存在困难,这限制了其在实际应用中的表现,尤其是在存在显著尺度变化的情况下。在本文中,我们提出了 MHAF-YOLO,这是一种新型检测框架,其特色在于一种名为多分支辅助特征金字塔网络(MAFPN)的灵活颈部设计,该设计包含两个关键模块:浅层辅助融合(SAF)和高级辅助融合(AAF)。原创 2025-04-19 17:42:44 · 411 阅读 · 0 评论 -
UNET改进67:添加自研创新模块StripCGLU
尽管遥感目标检测发展迅速,但检测高纵横比目标仍具挑战性。本文表明,大条带卷积是遥感目标检测的良好特征表示学习器,能够很好地检测各种纵横比的目标。基于大条带卷积,我们构建了一个名为 Strip R-CNN 的新网络架构,该架构简单、高效且强大。与近期利用方形大核卷积的遥感目标检测器不同,我们的 Strip R-CNN 利用骨干网络 StripNet 中的顺序正交大条带卷积来捕获空间信息。此外,我们通过解耦检测头并在我们的条带头中为定位分支配备条带卷积来提高遥感目标检测器的定位能力。原创 2025-04-19 17:22:17 · 227 阅读 · 0 评论 -
UNET改进66:添加StripBlock模块|根据目标大小动态调整尺度
摘要。我们提出了卷积块注意模块(CBAM),这是一种简单而有效的前馈卷积神经网络注意模块。给定一个中间特征映射,我们的模块沿着两个独立的维度依次推断注意力映射,通道和空间,然后将注意力映射乘以输入特征映射以进行自适应特征细化。因为CBAM是一个轻量级的通用模块,它可以无缝地集成到任何CNN架构中,开销可以忽略不计,并且可以与基础CNN一起进行端到端训练。我们通过在ImageNet-1K、MS COCO检测和VOC 2007检测数据集上进行大量实验来验证我们的CBAM。原创 2025-04-13 17:02:16 · 102 阅读 · 0 评论 -
UNET改进65:添加新型PSConv|契合暗弱小目标像素的高斯空间分布,增强了特征提取能力
近年来,基于卷积神经网络(CNN)的红外小目标检测方法取得了显著成效。然而,这些方法通常采用标准卷积,忽略了红外小目标像素分布的空间特性。因此,我们提出了一种新颖的风车状卷积(PConv),用以替代骨干网络低层的标准卷积。PConv 更好地契合了暗弱小目标像素的高斯空间分布,增强了特征提取能力,显著扩大了感受野,且仅引入了极少量的参数增加。此外,尽管近期的损失函数结合了尺度和位置损失,但它们未能充分考虑不同目标尺度下这些损失的敏感度差异,限制了对暗弱小目标的检测性能。原创 2025-04-13 16:53:42 · 106 阅读 · 0 评论 -
UNET改进64:添加APBottleneck模块|根据目标大小动态调整尺度
近年来,基于卷积神经网络(CNN)的红外小目标检测方法取得了显著成效。然而,这些方法通常采用标准卷积,忽略了红外小目标像素分布的空间特性。因此,我们提出了一种新颖的风车状卷积(PConv),用以替代骨干网络低层的标准卷积。PConv 更好地契合了暗弱小目标像素的高斯空间分布,增强了特征提取能力,显著扩大了感受野,且仅引入了极少量的参数增加。此外,尽管近期的损失函数结合了尺度和位置损失,但它们未能充分考虑不同目标尺度下这些损失的敏感度差异,限制了对暗弱小目标的检测性能。原创 2025-04-11 22:06:50 · 308 阅读 · 0 评论 -
UNET改进63:添加DTAB模块|强大的局部拟合和全局视角能力
盲点网络(BSN)一直是自监督图像去噪(SSID)中流行的神经架构。然而,大多数现有的 BSN 都是基于卷积层构建的。尽管在许多图像修复任务中,Transformer 已显示出克服卷积局限性的潜力,但其注意力机制可能会违反盲点要求,从而限制了其在 BSN 中的应用。为此,我们提出分析并重新设计通道和空间注意力,以满足盲点要求。具体而言,在多尺度架构中,通道自注意力可能会泄露盲点信息,因为下采样会将空间特征混入通道维度。为了解决这个问题,我们将通道分成若干组,并分别执行通道注意力。原创 2025-02-15 21:34:42 · 433 阅读 · 0 评论 -
UNET改进62:添加HFERB模块|提取高频信息的高频增强残差块
基于变压器的方法已经表现出显著的效果通过有效地提取远程依赖关系,提高单幅图像超分辨率(SISR)的潜力。然而,大多数目前该领域的研究已经优先考虑了变压器块的de符号来捕获全局信息,而忽略了纳入高频率先验的重要性,我们认为这可能是有益的。在我们的研究中,我们进行了一系列的实验和发现变压器结构更擅长于cap转换低频信息,但容量有限在构建高频表示时,将com与它们的卷积对应物进行比较。我们的提议解,交叉细化自适应特征调制变压器(CRAFT),集成了con旋转和变压器结构的优点。原创 2025-02-15 21:25:11 · 428 阅读 · 0 评论 -
UNET改进61:添加LFE模块|高效长距离注意力网络
最近,基于Transformer的方法在各种视觉任务中取得了令人印象深刻的结果,包括通过利用自注意力(SA)进行特征提取的图像超分辨率(SR)。然而,在大多数现有的基于Transformer的模型中,SA的计算非常昂贵,而一些采用的操作可能对SR任务来说是多余的。这限制了SA计算的范围,从而限制了SR性能。在这项工作中,我们提出了一种用于图像SR的高效长距离注意力网络(ELAN)。原创 2025-01-07 22:38:16 · 406 阅读 · 0 评论 -
Unet改进60:模型添加RAB/HDRAB模块|通过不同卷积层之间的多次跳过连接捕获丰富的局部特征,并且可以丢弃不重要的特征
在图像去噪中,深度卷积神经网络(cnn)在去除空间不变性噪声方面具有良好的性能。然而,这些网络中的许多不能很好地去除图像采集或传输过程中产生的真实噪声(即空间变异噪声),这严重阻碍了它们在实际图像去噪任务中的应用。本文提出了一种新型的双分支剩余注意网络(Dual-branch Residual Attention Network,简称DRANet)用于图像去噪,该网络具有广泛的模型结构和注意引导特征学习的优点。该模型包含两个不同的并行分支,可以捕获互补特征,增强模型的学习能力。原创 2025-01-07 22:31:14 · 260 阅读 · 0 评论 -
Unet改进59:使用ADown下采样改进模型
摘要。我们提出了卷积块注意模块(CBAM),这是一种简单而有效的前馈卷积神经网络注意模块。给定一个中间特征映射,我们的模块沿着两个独立的维度依次推断注意力映射,通道和空间,然后将注意力映射乘以输入特征映射以进行自适应特征细化。因为CBAM是一个轻量级的通用模块,它可以无缝地集成到任何CNN架构中,开销可以忽略不计,并且可以与基础CNN一起进行端到端训练。我们通过在ImageNet-1K、MS COCO检测和VOC 2007检测数据集上进行大量实验来验证我们的CBAM。原创 2024-12-19 22:23:58 · 642 阅读 · 0 评论 -
Unet++改进58:添加SFHF_Block(2024最新改进)
由于恶劣的大气条件或独特的降解机制,自然图像会遭受各种退化现象。这种多样性使得为各种恢复任务设计一个通用框架具有挑战性。现有的图像恢复方法没有探索不同退化现象之间的共性,而是侧重于在有限的恢复先验下对网络结构的修改。在这项工作中,我们首先从频率的角度回顾了各种退化现象。基于此,我们提出了一种高效的图像恢复框架,称为SFHformer,它将快速傅里叶变换机制融入到Transformer架构中。具体而言,我们设计了一种双域混合结构用于多尺度感受场建模,其中空间域和频率域分别侧重于局部建模和全局建模。原创 2024-12-14 20:45:25 · 749 阅读 · 0 评论 -
Unet++改进57:添加FFCM|轻量级的混合本地信道注意机制
目前大多数单图像脱轨(SID)方法都是基于Transformer的全局建模来实现高质量的重建。然而,它们的体系结构仅从空间域构建远程特征,这将带来巨大的计算负担以保持有效性。此外,这些方法要么在训练中忽略了负样本信息,要么没有充分利用负样本中存在的雨条模式。为了解决这些问题,我们提出了一个频率感知的脱轨变压器框架(FADformer),它完全捕获了有效除雨的频域特征。具体来说,我们构建了FADBlock,包括融合傅立叶卷积混频器(FFCM)和前置门控前馈网络(PGFN)。原创 2024-12-14 20:43:57 · 299 阅读 · 0 评论 -
Unet++改进56:SepConv和CGLU组合创新
摘要- metaformer是Transformer的抽象架构,在实现竞争性性能方面发挥了重要作用。在本文中,我们进一步探索了MetaFormer的能力,再次,通过将我们的重点从令牌混合器设计转移开来:我们使用最基本或最常见的混合器在MetaFormer下引入了几个基线模型,并展示了它们令人满意的性能。我们总结了我们的观察结果如下:(1)MetaFormer确保了可靠的性能下界。原创 2024-12-13 20:03:08 · 382 阅读 · 0 评论 -
Unet++改进55:Pooling和CGLU组合创新
摘要- metaformer是Transformer的抽象架构,在实现竞争性性能方面发挥了重要作用。在本文中,我们进一步探索了MetaFormer的能力,再次,通过将我们的重点从令牌混合器设计转移开来:我们使用最基本或最常见的混合器在MetaFormer下引入了几个基线模型,并展示了它们令人满意的性能。我们总结了我们的观察结果如下:(1)MetaFormer确保了可靠的性能下界。原创 2024-12-13 20:01:48 · 111 阅读 · 0 评论 -
Unet++改进54:IdentityFormer和CGLU组合创新
摘要- metaformer是Transformer的抽象架构,在实现竞争性性能方面发挥了重要作用。在本文中,我们进一步探索了MetaFormer的能力,再次,通过将我们的重点从令牌混合器设计转移开来:我们使用最基本或最常见的混合器在MetaFormer下引入了几个基线模型,并展示了它们令人满意的性能。我们总结了我们的观察结果如下:(1)MetaFormer确保了可靠的性能下界。原创 2024-12-12 20:34:31 · 258 阅读 · 0 评论 -
Unet++改进53:在不同位置添加SepConv
摘要- metaformer是Transformer的抽象架构,在实现竞争性性能方面发挥了重要作用。在本文中,我们进一步探索了MetaFormer的能力,再次,通过将我们的重点从令牌混合器设计转移开来:我们使用最基本或最常见的混合器在MetaFormer下引入了几个基线模型,并展示了它们令人满意的性能。我们总结了我们的观察结果如下:(1)MetaFormer确保了可靠的性能下界。原创 2024-12-12 20:32:40 · 286 阅读 · 0 评论 -
Unet++改进52:添加Pooling
摘要- metaformer是Transformer的抽象架构,在实现竞争性性能方面发挥了重要作用。在本文中,我们进一步探索了MetaFormer的能力,再次,通过将我们的重点从令牌混合器设计转移开来:我们使用最基本或最常见的混合器在MetaFormer下引入了几个基线模型,并展示了它们令人满意的性能。我们总结了我们的观察结果如下:(1)MetaFormer确保了可靠的性能下界。原创 2024-12-11 19:59:30 · 110 阅读 · 0 评论 -
Unet++改进51:添加IdentityFormer
摘要- metaformer是Transformer的抽象架构,在实现竞争性性能方面发挥了重要作用。在本文中,我们进一步探索了MetaFormer的能力,再次,通过将我们的重点从令牌混合器设计转移开来:我们使用最基本或最常见的混合器在MetaFormer下引入了几个基线模型,并展示了它们令人满意的性能。我们总结了我们的观察结果如下:(1)MetaFormer确保了可靠的性能下界。原创 2024-12-11 19:57:44 · 225 阅读 · 0 评论 -
Unet++改进50:在不同位置添加InceptionDWConv2d|保持大感受野的同时,显著提升了模型的计算效率
受ViTs远程建模能力的启发,大核卷积最近被广泛研究和采用,以扩大接受野和提高模型性能,如使用7×7深度卷积的出色工作ConvNeXt。虽然这种深度运算只消耗少量的FLOPs,但由于较高的内存访问成本,很大程度上损害了模型在功能强大的计算设备上的效率。例如,ConvNeXt-T具有与ResNet-50相似的FLOPs,但在A100 gpu上进行全精度训练时只能达到60%的吞吐量。虽然减小ConvNeXt的内核大小可以提高速度,但它会导致显著的性能下降。原创 2024-12-04 20:17:16 · 254 阅读 · 0 评论 -
Unet++改进49:全网首发直方图TransformerBlock(2024最新模块)|通过将空间特征按强度排序并划分为不同的直方图区域(bins),从而对相似的降质像素进行分组处理
摘要。基于变压器的恶劣天气图像恢复方法取得了重大进展。它们大多使用沿通道维度或空间固定范围块的自关注来减少计算负荷。然而,这种折衷导致了在捕获远程空间特征方面的限制。由于观测到天气引起的退化因素主要导致相似的遮挡和亮度,在这项工作中,我们提出了一种有效的直方图转换器(Histogram Transformer, Histoformer)来恢复受恶劣天气影响的图像。它是由一种被称为直方图自注意的机制驱动的,该机制将空间特征分类并分割成基于强度的箱子。原创 2024-12-04 20:15:58 · 406 阅读 · 0 评论 -
Unet++改进48:添加SGD优化器
在train.py中训练即可。原创 2024-12-03 20:42:42 · 123 阅读 · 0 评论 -
Unet++改进47:添加SophiaG优化器|
在train.py中训练即可。原创 2024-12-03 20:41:08 · 247 阅读 · 0 评论 -
Unet++改进46:添加Lion优化器|效率与效果兼得的“训练狮”
在train.py中训练即可。原创 2024-12-02 21:00:40 · 212 阅读 · 0 评论 -
Unet++改进45:添加AdamW优化器|
在train.py中训练即可。原创 2024-12-02 20:59:12 · 116 阅读 · 0 评论 -
Unet改进58:在不同位置添加DeepPoolLayer
摘要。我们提出了卷积块注意模块(CBAM),这是一种简单而有效的前馈卷积神经网络注意模块。给定一个中间特征映射,我们的模块沿着两个独立的维度依次推断注意力映射,通道和空间,然后将注意力映射乘以输入特征映射以进行自适应特征细化。因为CBAM是一个轻量级的通用模块,它可以无缝地集成到任何CNN架构中,开销可以忽略不计,并且可以与基础CNN一起进行端到端训练。我们通过在ImageNet-1K、MS COCO检测和VOC 2007检测数据集上进行大量实验来验证我们的CBAM。原创 2024-12-01 13:29:47 · 305 阅读 · 0 评论 -
Unet改进57:在不同位置添加SFHF
由于恶劣的大气条件或独特的降解机制,自然图像会遭受各种退化现象。这种多样性使得为各种恢复任务设计一个通用框架具有挑战性。现有的图像恢复方法没有探索不同退化现象之间的共性,而是侧重于在有限的恢复先验下对网络结构的修改。在这项工作中,我们首先从频率的角度回顾了各种退化现象。基于此,我们提出了一种高效的图像恢复框架,称为SFHformer,它将快速傅里叶变换机制融入到Transformer架构中。具体而言,我们设计了一种双域混合结构用于多尺度感受场建模,其中空间域和频率域分别侧重于局部建模和全局建模。原创 2024-12-01 13:26:52 · 254 阅读 · 0 评论 -
Unet++改进45:添加AdamW优化器|
在train.py中训练即可。原创 2024-11-24 10:31:51 · 137 阅读 · 0 评论 -
Unet++改进44:添加MogaBlock(2024最新改进模块)|在纯基于卷积神经网络的模型中进行判别视觉表示学习,具有良好的复杂性和性能权衡。
通过将内核尽可能全局化,现代卷积神经网络在计算机视觉任务中显示出巨大的潜力。然而,最近在深度神经网络(dnn)内的多阶博弈论相互作用方面的进展揭示了现代卷积神经网络的表示瓶颈,其中表达性相互作用不能随着核大小的增加而有效编码。为了应对这一挑战,我们提出了一个新的现代卷积神经网络家族,称为MogaNet,用于在纯基于卷积神经网络的模型中进行判别视觉表示学习,具有良好的复杂性和性能权衡。MogaNet将概念上简单但有效的卷积和门控聚合封装到一个紧凑的模块中,在这个模块中,判别特征被有效地收集和自适应地上下文化。原创 2024-11-24 10:30:20 · 576 阅读 · 0 评论 -
Unet++改进43:添加SCSA(2024最新改进模块)|集成多语义信息,采用渐进式压缩策略,在信道自注意中注入判别性空间先验,有效引导信道重新校准
通道关注和空间关注分别在提取各种下游视觉任务的特征依赖关系和空间结构关系方面带来了显著的改进。它们的结合更有利于发挥各自的优势,但通道和空间注意之间的协同作用尚未得到充分挖掘,缺乏充分利用多语义信息的协同潜力来进行特征引导和缓解语义差异。本研究试图在多个语义层面揭示空间和通道注意之间的协同关系,提出了一个新的空间和通道协同注意模块(SCSA)。我们的SCSA由两部分组成:可共享的多语义空间注意(SMSA)和渐进式信道自注意(PCSA)。原创 2024-11-23 20:27:03 · 233 阅读 · 0 评论 -
Unet++改进42:添加ACConv2d|使用一维非对称卷积来增强平方卷积核
由于在给定的应用环境中设计合适的卷积神经网络(CNN)架构通常需要大量的人工工作或大量的GPU时间,研究社区正在征求架构中立的CNN结构,它可以很容易地插入到多个成熟的架构中,以提高我们实际应用的性能。我们提出非对称卷积块(Asymmetric Convolution Block, ACB),这是一种架构中性的结构作为CNN的构建块,它使用一维非对称卷积来增强平方卷积核。对于现成的体系结构,我们用acb取代标准的平方核卷积层来构建非对称卷积网络(ACNet),该网络可以通过训练达到更高的精度。原创 2024-11-23 20:25:15 · 156 阅读 · 0 评论 -
Unet++改进41:添加gConvBlock(2024最新改进方法)|
图像去雾是低层次视觉中的一个活跃话题,随着深度学习的快速发展,许多图像去雾网络被提出。尽管这些网络的管道运行良好,但改善图像去雾性能的关键机制仍不清楚。因此,我们不打算提出具有花哨模块的除雾网络;相反,我们对流行的U-Net进行最小的修改,以获得紧凑的除雾网络。具体来说,我们使用门控机制将U-Net中的卷积块交换为残差块,使用选择性核融合主要路径的特征映射并跳过连接,并将得到的U-Net变体称为gUNet。因此,在显著降低开销的情况下,gUNet在多个图像去雾数据集上优于最先进的方法。原创 2024-11-22 18:38:49 · 346 阅读 · 0 评论 -
Unet++改进40:添加FMB(2024最新改进方法)|有效的自关注近似(EASA)分支来建模非局部信息,并使用局部细节估计(LDE)分支来捕获局部细节
摘要。基于变压器的复原方法具有显著的性能,因为变压器的自关注(self-attention, SA)可以探索非局部信息,从而获得更好的高分辨率图像重建。然而,关键的点积SA需要大量的计算资源,这限制了它在低功耗器件中的应用。此外,SA机制的低通特性限制了其捕获局部细节的能力,从而导致平滑的重建结果。为了解决这些问题,我们提出了一个自调制特征聚合(SMFA)模块,以协同利用局部和非局部特征相互作用,以获得更准确的重建。原创 2024-11-22 18:29:45 · 188 阅读 · 0 评论 -
Unet++改进39:添加WTConv2d(2024最新改进方法)
摘要。近年来,人们一直试图增加卷积神经网络(cnn)的核大小,以模拟视觉变形者(ViTs)的全局接受场自注意块。然而,这种方法在达到全局接受场之前很快就达到了上限和饱和。在这项工作中,我们证明了通过利用小波变换(WT),实际上可以在不受过度参数化影响的情况下获得非常大的接受域,例如,对于k × k的接受域,所提出的方法中可训练参数的数量仅随k呈对数增长。所提出的层,称为WTConv,可以用作现有架构中的临时替代品,产生有效的多频响应。并随着接受野的大小优雅地缩放。原创 2024-11-21 21:42:56 · 736 阅读 · 0 评论 -
Unet++改进38:添加GLSA(2024最新改进方法)具有聚合和表示全局和局部空间特征的能力,这有利于分别定位大目标和小目标
基于变压器的模型已经被广泛证明是成功的计算机视觉任务,通过建模远程依赖关系和捕获全局表示。然而,它们往往被大模式的特征所主导,导致局部细节(例如边界和小物体)的丢失,这在医学图像分割中是至关重要的。为了缓解这一问题,我们提出了一种双聚合变压器网络,称为DuAT,其特点是两个创新的设计,即全局到局部空间聚合(GLSA)和选择性边界聚合(SBA)模块。GLSA具有聚合和表示全局和局部空间特征的能力,这有利于分别定位大目标和小目标。原创 2024-11-21 21:40:34 · 570 阅读 · 0 评论 -
Unet++改进37:添加KACNConvNDLayer(2024最新改进方法)
#源码地址:https://github.com/SynodicMonth/ChebyKAN= 0:= 0:stride,padding,dilation,groups=1,return xreturn y。原创 2024-11-20 18:44:38 · 393 阅读 · 0 评论 -
Unet++改进35:添加FastKANConv2DLayer(2024最新改进方法)
地址。原创 2024-11-20 18:43:28 · 362 阅读 · 0 评论 -
Unet++改进36:添加KALNConv2DLayer(2024最新改进方法)
#来源:https://github.com/1ssb/torchkan= 0:= 0:stride,padding,dilation,groups=1,else:return xreturn y。原创 2024-11-19 21:53:49 · 115 阅读 · 0 评论