DEA-Net: Single image dehazing based on detail-enhanced convolution and content-guided attention
DEA-Net:基于细节增强卷积和内容引导注意力的单幅图像去雾

这篇论文提出了一种新的特征融合方式,也就是在跳连接操作时,将编码器与解码器对于的特征进行融合。在特征融合的时候,本文也利用了通道、空间注意力机制,提出了一个像素注意力,它是基于空间注意力和通道注意力机制,得到一个空间重要性图,下面来详细介绍一下。
1. 简介
该论文提出了一种细节增强注意力块(DEAB),由由细节增强卷积(DEConv)和内容引导注意力(CGA)组成。具体来说,DEConv 将先验信息整合到普通卷积层中,以增强表示能力和泛化能力。然后,通过使用重参数化技术,DEConv 被等效转换为普通的卷积层,且不引入额外的参数和计算成本。CGA 通过为每个通道分配独特的空间重要性图(SIM),能够关注特征中编码的更有用的信息。此外,我们还提出了一种基于 CGA 的混合融合方案,用于有效融合特征并辅助梯度流动。(上面是原论文类容)
简单来说,DEA-Net提出双模块协同框架 ,通过细节增强卷积(DEC)和 内容引导注意力(CGA) ,针对性解决细节丢失与非均匀去雾问题:
- 细节增强卷积(DEC) :通过多尺度特征融合与残差学习,强化高频细节恢复。
- 内容引导注意力(CGA) :动态分配注意力权重,区分雾霾区域与内容结构,避免过度处理。
2. 网络结构
该网络采用的也是编码器-解码器结构,
仔细看了它的网络结构图,就是一个UNet的变种,采用对称结构,编码器提取多尺度特征,解码器逐步恢复清晰图像。
- DEC模块 :嵌入在编码器中,增强细节特征。
- CGA模块 :位于解码器阶段,引导注意力分配。
2.1 Detail-enhanced Convolution(细节增强卷积)

上图是论文中提到的细节增强卷积模块,该模块包含了四个差分卷积(DC)和一个普通卷积,并行部署用于特征提取。该模块该兴趣的可以去看看原文章,我想分享的是后面的模块。
2.2 Content-guided Attention(内容引导注意力)
之前在分享MIFNet这篇论文是也提到过FAM,也就是特征注意力模块,它是由通道注意力和空间注意力组成,和CBAM一样,二者依次排列以计算通道维度和空间维度的注意力权重,具体的细节可以看这个。本论文中提到了,空间注意力计算一个空间重要性图(SIM),用以自适应地只是不同区域的重要性水平,对于每个特征通道,我们考虑信息在空间维度上分布不均匀这样的情况,印社需要通道特定的SIM,并且还要保证通道和空间之间要有信心的交换,基于上面的情况,作者提出了内容引导注意力(CGA),论文中这么说“以粗到细的方式为输入特征的每个通道生成专属的空间重要性图,同时充分混合通道注意力权重和空间注意力权重,保证信息交换。”CGA的详细过程如下图所示:

首先CGA的目的是为了生存通道特点的SIM,维度与输入

最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



