- 博客(1)
- 收藏
- 关注
转载 SE-attention
SE-attention ##一、SE-NET的 图1.SE-block 图一图中的Ftr是传统的卷积结构,X和U是Ftr的输入(C’xH’xW’)和输出(CxHxW),这些都是以往结构中已存在的。SENet增加的部分是U后的结构:对U先做一个Global Average Pooling(图中的Fsq(.),作者称为Squeeze过程),输出的1x1xC数据再经过两级全连接(图中的Fex(.),作者称为Excitation过程),最后用sigmoid(论文中的self-gating mechanism)限
2021-03-08 14:37:55
2621
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人