1. 通道注意力机制
参考文献
阅读了“Squeeze-and-Excitation Networks”这篇论文,但是懂了它的流程原理,但是不知道有什么用,先说说它的流程吧。

上面这是论文中讲到的Squeeze-and-Excitation(挤压-奖励)模块,这个模块有4个关键点,分别是: F t r 、 F s q 、 F e x 、 F s c a l e F_{tr}、F_{sq}、F_{ex}、F_{scale} Ftr、Fsq、Fex、Fscale,下面详细来讲他的流程:
- F t r F_{tr} Ftr:假设我们的特征图是X,通过 F t r F_{tr} Ftr,将X转换为U,在这个过程中,每个通道进行了卷积以及相关操作(比如偏置和加权等),简单来说这个 F t r F_{tr} Ftr就是可学习的滤波器的一个集合(这里要区别简单的卷积核和滤波器的区别)。论文中给出了这样的数学公式: u c = v c ∗ X = ∑ s = 1 C v c s ∗ x s u_c = v_c * X = \sum_{s=1}^C v_c^s * x^s \quad uc=vc∗X=∑s=1Cvcs∗xs,其中 V = [ v 1 , v 2 , . . . . , v C ] V=[v_1, v_2,....,v_C] V=[v1,v2,....,vC]表示学习到的滤波器集合, U = [ u 1 , u 2 , . . . , u C ] U=[u_1, u_2,...,u_C] U=[u1,u2,...,uC]表示 F t r F_{tr} Ftr的输出(因为这里的通道为C,所以是一个集合的形式)。
- F s q F_{sq} Fsq:挤压操作。我们得道的U,对于这个特征图来说,每个

最低0.47元/天 解锁文章
12万+

被折叠的 条评论
为什么被折叠?



