这篇文章发表在ECCV2020上面,是基于STM的改进。简单回顾一下STM,这个算法模型综合利用了previous frames的信息,来帮助更好的预测分割mask,但存在的问题就是随着帧数的增加,由于需要把之前的帧信息存放到memory中,所以占用的内存以及计算成本会很高。虽然STM中给出了利用之前的某5帧的建议,但这样又不能对每一帧加以利用。
因此,本文提出的Global Context Module就是解决这一问题的,利用这一种固定尺寸的特征表示,不仅可以充分利用之前每一帧的信息,还能减少网络模型的空间和计算开销。
Encoder和Decoder与STM是一样的,但是对于Memoey和Query的key和value的处理是有区别的。STM是将Memory和Query的key先进行相似度计算,得到一个matching,随后将其与Memory的value相乘,再concat到Query的value上。而这篇文章处理思路与STM是有很大差别的,具体区别如下图:
本篇文章Memory的并不是看作 H ∗ W H*W