论文提出了结合注意力卷积的二叉神经树进行弱监督的细粒度分类,在树结构的边上结合了注意力卷积操作,在每个节点使用路由函数来定义从根节点到叶子节点的计算路径,结合所有叶子节点的预测值进行最终的预测,论文的创意和效果来看都十分不错
来源:晓飞的算法工程笔记 公众号
论文: Attention Convolutional Binary Neural Tree for Fine-Grained Visual Categorization

Introduction

细粒度分类(Fine-Grained Visual Categorization, FGVC)是图片分类的一个分支,由于类别间的相似性非常大,一般人比较难区分,所以是个很有研究意义的领域。受神经树研究的启发,论文设计了结合注意力卷积的二叉神经树结构(attention convolutional binary neural tree architecture, ACNet)用于弱监督的细粒度分类,论文的主要贡献如下:
- 提出结合注意力卷积的二叉神经树结构ACNet用于细粒度分类,在树结构的边上结合了注意力卷积操作,在每个节点使用路由函数从而定义从根节点到叶子节点的计算路径,类似于神经网络。这样的结构让算法有类似于神经网络的表达能力,以及能够从粗到细的层级进行特征学习,不同的分支专注于不同的局部区域,最后结合所有叶子节点的预测值进行最终的预测
- 添加attention transformer模块来加强网络获取关键特征进行准确分类
- 在三个数据集CUB-200-2011、Stanford Cars和Aircraft上达到了SOTA
#Attention Convolutional Binary Neural Tree

ACNet包含4个模块,分别是主干网络(backbone network)、分支路由(branch routing)、attention transformer和标签预测(label prediction),如图2所示。将ACNet定义为 ( T , O ) (\mathbb{T},\mathbb{O}) (T,O), T \mathbb{T} T为树状拓扑结构, O \mathbb{O} O为树边的操作集。论文使用满二叉树 T = { V , E } \mathbb{T}=\{\mathcal{V},\mathcal{E}\} T={ V,E}, V = { v 1 , . . . , v n } \mathcal{V}=\{v_1,...,v_n \} V={ v1,...,vn}为节点, E = { e 1 , . . . , e k } \mathcal{E}=\{e_1,...,e_k \} E={ e1,...,ek}为边,对于树深 h h h,共 n = 2 h − 1 n=2^h-1 n=2h

提出结合注意力卷积的二叉神经树结构ACNet,用于弱监督的细粒度分类,通过树结构上的注意力卷积及路由函数,实现从根到叶的计算路径,最终融合所有叶子节点预测值进行整体预测,有效提升分类精度。
最低0.47元/天 解锁文章
1430

被折叠的 条评论
为什么被折叠?



