论文阅读:PA-CNN

Learning Rich Part Hierarchies With Progressive Attention Networks for Fine-Grained Image Recognition

2020 TIP,论文主要借鉴了MA-CNN。

1 引言

细粒度分类两类解决方案:局部定位和高阶特征。

目前的定位类方法主要涉及较粗糙的部分,忽略了更细粒度的部分也提供识别的关键信息。然而,由于平滑或模糊特征图的不精确局部化,检测到这种程度是很难的。深层特征图中的每个元素对应于原始图像中的大感受野,导致区域上下文的混合,小部分受到相邻区域的影响,无法精确定位。

本文提出了渐进注意卷积神经网络(PA-CNN),可获取丰富的部分层次结构。主要思想是引入一种部分校正机制,使细粒度部分能够高精度地定位。其中,部分提议网络PPN生成多个局部注意力图,**部分校正网络(PRN)**学习每个部分的特征,并为PPN提供修正的位置。PPN和PRN相互加强。将较粗的尺度的PRN的输入和卷积参数以较细的尺度传递给PPN,可以逐渐生成更细粒度的部分和特征。

本文贡献:

  1. 提出渐进注意力卷积神经网络PA-CNN,可以学习部分的层次结构
  2. 以相互加强的方式优化部分建议子网和部分校正子网
  3. 实验性能好

3 方法

整体结构就是PPN产生多个注意力,PRN根据PPN的目标部分进行修正,再反馈回去:

image-20210523200757838

注意力模块的构成:

image-20210523201058735

详见MA-CNN。

3.1 多注意力模块及其损失

此部分完全就是MA-CNN中的channel grouping操作。

3.3 渐进式注意力CNN

两个模块的结构
  • PPN包括多注意力模块,
    • 输入:原始图片
    • 输出:从原始图片根据注意力图 M p \mathbf{M_p} Mp裁剪正方形块得到的若干新图片 X p \mathbf{X_p} Xp
  • PRN,每个建议部分都有一个全连接层生成注意力
    • 输入:建议部分 X p \mathbf{X_p} Xp
    • 输出:注意力图 M r \mathbf{M_r} Mr
两个模块之间的交互

用PRN的输出修正PPN的区域,修正损失函数:
L r e c ( M p ) = ∑ j , k = 1 ( h , w ) R e c ( m r ( j , k ) , m p ( j , k ) ) R e c ( m r ( j , k ) , m p ( j , k ) ) = ∣ ∣ m r ( j , k ) − m p ( j , k ) ) ∣ ∣ 2 L_{rec}(\mathbf{M_p})=\sum^{(h,w)}_{j,k=1}Rec(m_r(j,k),m_p(j,k))\\ Rec(m_r(j,k),m_p(j,k))=||m_r(j,k)-m_p(j,k))||^2 L

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值