residual attention network 论文解读

论文下载链接:https://arxiv.org/abs/1704.06904

github代码下载链接caffe:https://github.com/fwang91/residual-attention-network

摘要简介

在本篇论文中,提出了Residual attention network,该网络利用attention机制(可以将该结构使用到现有的端到端的卷积网络中),Residual attention network网络采样将attention结构堆叠的方法来改变特征的attention。并且随着网络的加深,attention module会做适应性的改变,在每一个attention modual中,采用上采样和下采样结构,另外作者提出了attention residual learning去训练更深的网络。

【文章的主要创新点】

  1. stacked network structure:通过堆叠多个attention modules来构建residual attention network,这点跟其他的深度网络很像的。
  2. attention residual learning:如果仅仅是堆叠attention modules,很明显会使得模型的精度降低,所以作者提出了learning的思想,来优化residual attention network
  3. bottom-up top-down feedforward attention: bottom-up top-down就是FCN中的特征图先变小,然后通过上采样将图像变大的方法,作者利用这种方法将特征权重添加到特征图上

下面简要介绍一下这篇文章

先抛一张attention结构图

根据上图结构可知,作者将每个Attention Module分成2个分支,分别为mask branch(attention部分)以及trunk banch(原始部分),attention的输出利用公式代表如下,其中T代表trunk banch,M代表mask branch,公式很清晰。

H i , c ( x ) = M i , c ( x ) ∗ T i , c ( x ) H_{i,c}(x)=M_{i,c}(x)*T_{i,c}(x) Hi,c

评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值