论文阅读100篇
文章平均质量分 95
语义分割、遥感影像、100篇后发文章
309摸鱼巨人
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Rethinking Local Perception in Lightweight Vision Transformer
提出一种新的轻量级视觉 Transformer 模型 CloFormer ,通过结合共享权重 和上下文感知权重 ,更好地捕获高频局部信息。解决现有方法在高频局部信息处理上的不足,同时保持低频全局信息的建模能力。CloFormer的核心思想是通过AttnConv模块和双分支结构,结合共享权重和上下文感知权重的优势,分别处理高频局部信息和低频全局新。其中AttnConv使用深度可分离卷积提取局部特征,通过非线性变换生成上下文感知权重,增强局部特征。双分支结构。原创 2025-04-03 15:17:18 · 744 阅读 · 0 评论 -
DEA-Net: Single image dehazing based on detail-enhanced convolution and content-guided attention
该论文提出了一种细节增强注意力块(DEAB),由由细节增强卷积(DEConv)和内容引导注意力(CGA)组成。具体来说,DEConv 将先验信息整合到普通卷积层中,以增强表示能力和泛化能力。然后,通过使用重参数化技术,DEConv 被等效转换为普通的卷积层,且不引入额外的参数和计算成本。CGA 通过为每个通道分配独特的空间重要性图(SIM),能够关注特征中编码的更有用的信息。此外,我们还提出了一种基于 CGA 的混合融合方案,用于有效融合特征并辅助梯度流动。(上面是原论文类容)原创 2025-04-02 18:01:37 · 1162 阅读 · 0 评论 -
Vision Transformer with Super Token Sampling
高冗余性:浅层特征通常以局部信息为主,直接应用在全局自注意力机制会导致大量的冗余计算。长程依赖建模不足:为了减少计算开销,许多方法采用局部自注意力或早起卷积模块,这牺牲了对长程依赖关系的捕获能力。论文中提出了一种新的诗句Transformer模型–Super Token Vision Transformer(SViT),通过引入超令牌(super tokens)来解决这一问题。原创 2025-03-31 12:20:16 · 1034 阅读 · 0 评论 -
UNetFormer
UNetFormer:一种用于高效遥感城市场景图像语义分割的类UNet变压器模型。原创 2025-03-26 20:28:20 · 1265 阅读 · 4 评论 -
CMLFormer
本文提出了一种CMLFormer网络架构,该架构在编解码结构中结合轻量级CNN和多尺度局部上下文Transformer,通过较低的计算开销有效融合遥感图像分割中的全局与局部信息。设计了一种高效灵活的多尺度局部上下文Transformer模块(MLTB),通过结合非重叠块自注意力机制与多尺度策略,以低计算复杂度建立像素间的长程依赖关系,从而捕捉遥感图像的全局上下文信息。提出特征增强模块(FEM)以缓解遥感图像分割中长程依赖建模过程中局部上下文细节的丢失问题。原创 2025-03-26 12:10:02 · 840 阅读 · 0 评论 -
SFA-Net: Semantic Feature Adjustment Network for Remote Sensing Image Segmentation
在本文中,我们提出了一种混合Transformer架构,该架构由基于CNN的编码器和基于Transformer的解码器组成。我们设计了一个特征调整模块,用于优化从EfficientNet骨干网络中提取的多尺度特征图。经过调整的特征图被集成到基于Transformer的解码器中,以实现遥感图像的语义分割。本文将所提出的编码器-解码器架构称为语义特征调整网络(SFA-Net)。原创 2025-03-18 21:18:24 · 1163 阅读 · 0 评论 -
通道注意力机制、空间注意力机制、混合注意力机制
阅读了“Squeeze-and-Excitation Networks”这篇论文,但是懂了它的流程原理,但是不知道有什么用,先说说它的流程吧。原创 2025-03-11 21:09:33 · 3437 阅读 · 0 评论 -
A Multilevel Multimodal Fusion Transformer for Remote Sensing Semantic Segmentation(论文阅读笔记)
多级多模态融合变压器遥感语义分割。原创 2025-03-09 21:37:56 · 1334 阅读 · 0 评论
分享