Squeeze-and-Attention Networks for Semantic Segmentation解读

本文介绍了Squeeze-and-Attention Networks (SANet) 结构,该结构通过压缩注意力模型强化分割任务的表征能力。SANet结合分组像素注意和像素级预测,通过注意力卷积通道引入空间-通道相互依赖,提升模型精度。在COCO数据集上达到83.2%的精度,PASCAL上达到54.4%的精度。相比传统方法,SA模型更高效,解决了通道注意力的参数问题,并引入像素组注意力,提高了目标像素级预测的准确性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近将注意力机制整合到分割任务通过强调特征里面的信息中来提升模型的表征能力。但是这些注意力机制忽略了一个暗含的分割子任务并且被卷积核的方格型形状所限制。我们提出了一个新颖的压缩注意力网络(SANet)结构,利用了一个高效的压缩注意力(SA)模型去计算两个分割图突出的特征:1)分组像素注意 2)像素级预测。特别指出,我们提出的压缩注意力模型通过引入注意力卷积通道在常规卷积上加了像素组注意力,所以以有效的方式引入一个空间-通道相互依赖。最终的分割结果由网络输出和四个阶段的多尺度上下文目标像素级预测增强融合所得。我们的SANEet在coco数据集上取得83.2%的精度,在PASCAL取得54.4%的精度。

图1 分割任务两个子任务,一个是像素级的分类,即每个像素都要预测一个标签,一个是像素分组,即预测哪些像素为一组

以前的工作:

1)多尺度上下文,一般包含金字塔或者多尺度通道,通过融合多尺度的上下文信息达到增强分割的目的。一个聚集激活模型被提出通过长范围的上下文信息来缓解普通卷积的特征的位置限制。我们的方法用融合主干残差网络不同阶段的输出来提高稠密连接的多尺度预测。

2)通道注意力,一般就是给特定的通道分配不同的权重达到强调重要通道的目的。缺点:带来额外的参数。而我们的压缩注意模型带有下采样但是并不完全压缩卷积通道,使得网络更灵活。特别是增加的通道

3)像素组注意力,自然语言处理中

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值