前言
依然是EAST算法的优化思路,出于·查重考虑,将于毕业以后公开,请见谅。这里要说的是注意力机制在文本检测中难免会有漏检和误检,可以在特征提取网络后几层加入视觉注意层加强局部细节和关注点的提取。
视觉注意层
视觉注意层主要通过使用注意力机制来关注重要特征和抑制不必要的特征。卷积运算通过将通道和空间信息混合在一起,注意力层就是为了增加这两个主要维度的有意义的特征:通道合作空间轴,于是视觉注意力模块由通道和空间注意力模块组成。
中间特征映射为F,通道注意力图谱为Mc,空间注意力图谱为Ms。
整个过程可以概括为:
通道注意力模块:通道注意力集中在“什么”是有意义的。
计算公式为:
其中激活函数为Sigmoid函数。W是多层感知机的权重。
空间注意力模块:
计算公式如下:
其中激活函数为Sigmoid函数。f代表卷积操作。
最后
好了大致就写到这了,后续我会阅读更多注意力文章然后发表成公开博客,谢谢大家。