Graph Guided Transformer论文精读

摘要

抛出问题:基于深度学习的框架在将平衡局部空间结构信息的时候对于区域信息的特征建模能力会下降!
紧接着提出一个G²T(Graph–guided transformer)模型,整个网络的框架为:首先使用卷积块获取像素级别的特征同时对于输入的HSI信息通过在超像素尺度上的语义获取无向图,然后使用图引导自注意力机制对于超像素节点间进行全局和局部相关性建模,之后将像素级特征和超像素级区域特征进行集成用于生成HSI的分类结果。
并且论文给出了代码的下载地址:论文所给代码下载地址

前人工作

赵等人提出了一种基于卷积神经网络的紧凑带权模型。该网络基于对给定分类任务的贡献来评估多个光谱带。Dosovistky等人提出了ViT,它能够利用其独特的多头注意力机制对序列中的token进行长距离依赖建模。孙等人提出了一种光谱空间特征标记化transformer(SSFTT)方法,用于捕获光谱空间特征和深度语义特征。作者指出前文的这些内容都是基于patch输入的,这只包含了中心像素和周围像素的信息,由于感受野的限制基于卷积神经网络的方法很难提取长距离特征,基于Transformer的方法通常具有建模全局相关性的潜力,但受限于HSI补丁的固定大小。此外,它们通常需要大量的标签来进行模型训练。
为了减轻空间上下文约束问题,基于图像的全局学习方法在HSI分类中变得流行起来。Yu等人提出了一个双通道卷积网络(DCCN),用于在整个HSI中提取全局和多尺度的重要特征。然而堆叠的多层卷积核不能有效的提取全局信息,刘等人提出了一种基于卷积神经网络的图卷积网络(CEGCN)。该方法可以自动将常规网格数据(HSI)编码为不规则图形数据(超像素),以提取中长距离信息,并将图形数据解码为每个像素的更精细特征。然而,图卷积网络更侧重于从相邻超像素区域聚合信息,忽略了超像素内的全局注意力。Yu等人提出了一种多级谱间-空间transformer(MSTNet),用于在整个HSI中提取全局和多尺度重要特征。然而,Transformer中的自注意力机制将输入标记视为一个全连接图,忽略了

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值