WSDAN【阅读笔记】

本文提出了一种弱监督数据增强网络(WS-DAN),通过生成注意图来指导数据增强,解决随机数据增强的效率低下和背景噪声问题。WS-DAN通过注意裁剪和注意下降提高图像清晰度和模型性能。训练和测试阶段的网络架构详述,并通过消融实验验证其有效性。

论文地址:https://arxiv.org/abs/1901.09891
官方代码:https://github.com/tau-yihouxiang/WS_DAN
别人复现的Pytorch版代码1:https://github.com/GuYuc/WS-DAN.PyTorch
别人复现的Pytorch版代码2:https://github.com/wvinzh/WS_DAN_PyTorch
代码讲解:https://codeleading.com/article/15516429831/
好的文章:点击进入
好的文章:点击进入
好的文章:点击进入
好的文章:点击进入
See Better Before Looking Closer: Weakly Supervised Data Augmentation Network for Fine-Grained Visual Classification(看得更清楚再看得更近:用于细粒度视觉分类的弱监督数据增强网络)

前言

之前存在的问题:

通常采用数据增强来增加训练数据量,防止过拟合,提高深度模型的性能。然而,在实际应用中,随机数据增强(如随机图像裁剪)的效率很低,并且可能引入许多不受控制的背景噪声。

在本文中,我们提出弱监督数据增强网络(WS-DAN)来探索数据增强的潜力。

具体做法:

  • 对于每个训练图像,我们首先通过弱监督学习生成注意图来表示对象的判别部分。
  • 接下来,我们在这些注意图的指导下增强图像,包括注意裁剪和注意下降。

WS-DAN从两个方面提高了分类精度。

  • 在第一阶段,由于提取了更多有区别的部分的特征,图像的清晰度会提高。
  • 在第二阶段,注意区域提供了物体的准确位置,保证了我们的模型能够更近距离地观察物体,进一步提高了性能。

本文的贡献有以下几点:

  • 为了提高数据增强的效率,我们在注意图的基础上提出了注意引导数据增强,包括注意裁剪和注意下降。注意裁剪是随机裁剪和调整注意部分的大小,以增强局部特征的表示。注意下降是随机地从图像中删除一个注意区域,以鼓励模型从多个可区分的部分中提取特征。

网络框架

训练阶段的框架图如下所示:
在这里插入图片描述
训练的时候是随机抽了一张attention map
测试阶段的网络架构如下图所示:
在这里插入图片描述
在这里插入图片描述
测试的时候是attention map求了个均值,这样做的目的是为了测试的稳定性。

在这里插入图片描述

在这里插入图片描述
feature maps是一个H×W×C的三维张量,其中HW分别表示特征图的高度和宽度,C表示特征图的通道数。每个通道都对应着一个特定的特征,例如边缘、纹理、颜色等。因此,特征图中的每个像素都代表着一个局部特征。
在WS-DAN中,每一层的注意力图都代表着不同的物体部位或者纹理特征。例如,在CUB-200-2011数据集中,WS-DAN使用了15个注意力图来表示不同的鸟类部位,例如头部、翅膀、尾巴等。这些注意力图可以用于指导数据增强,从而提高分类的准确性。
部分特征图是通过元素巧妙地将每个注意图与特征图相乘来生成的。
在这里插入图片描述
对于每个细粒度的类别,我们期望注意图Ak 可以表示相同的第 k 个对象的部分。部分特征 fk 将接近全局特征中心ck ,其中ck是部分的特征中心。由于第k个目标的部分被从图像中剔除,这将鼓励网络提出其他可判别的部分,这意味着该目标也可以被更好地看到。
在这里插入图片描述

消融实验

在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值