相关论文 non local 操作
-
要点:
criss-cross attention module 获得上下文信息
循环操作, 每一个像素可以获得全图信息 -
优势:
与non-local 操作相比,少了85%的浮点运算,
与non-local 操作相比,GPU占用率时1/11
state of the art -
现存问题
Due to the fixed geometric structures, they are inherently limited to local receptive fields and short-range contextual information.导致全卷积神经网络没有足够的上下文信息 -
现存解决方案:
- ASPP
不足:从周围像素获取信息,不能获得dense contextual information - 金字塔池化
均等的上下文信息被所有像素所采纳,不符合不同的像素有不同的依赖 - non local 操作
O((H × W ) × (H × W )) in time and space

- ASPP
-
网络结构
(1)基本结构

本文介绍了一种名为CCNet的语义分割方法,它通过交叉注意力模块(CCA)有效地获取上下文信息,同时减少了计算复杂度。与Non-local操作相比,CCNet在GPU占用和浮点运算上都有显著优势。尽管Non-local操作能获取全局信息,但计算成本高,而CCNet则通过交叉注意力实现高效的信息聚合,适用于密集上下文信息的获取。网络结构包括特征提取、CCA模块和全局信息聚合,旨在解决全卷积网络中局部上下文信息不足的问题。
最低0.47元/天 解锁文章
680

被折叠的 条评论
为什么被折叠?



