GCNet的简述

其中了解self-attention知道他的计算量是O\left ( n^{2} \right )

Global Context Attention计算量变少从O\left ( n^{2} \right )变成O\left ( n \right )

NL:

(a)首先resize成C×HW然后通过1×1的卷积生成q,k,v,然后q乘k^{T} 变成HW×HW,然后通过softmax进行归一化然后和v进行乘,再通过1×1的卷积,再和原图进行相加也就是特征融合

由于不同位置的q对应热图几乎一致,因此可以共用一张热图,从而简化成(b)

再通过数学技巧把 W_{v}提出来,最后变成:

再借鉴se模块,将se的思路先降维后升维,这样减少计算量,并且加入了ln层更加稳定,形成最后的GCblock.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值