[论文阅读笔记@2019.6] Maximum Classifier Discrepancy for Unsupervised Domain Adaptation

本文提出了一个新颖的无监督领域适应方法,通过最大化分类器之间的分歧来改进目标领域的特征。该方法利用两个任务特定的分类器和一个特征生成器,旨在在保持源域分类准确性的同时,找出远离源域支持的目标样本。通过对抗性学习,生成器被训练以欺骗分类器,而分类器则被训练以增强它们在目标样本上的输出差异。实验在分类和语义分割任务上展示了方法的有效性,尤其是在VisDA数据集上优于其他基于分布匹配的方法。

[论文阅读笔记@2019.6] Maximum Classifier Discrepancy for Unsupervised Domain Adaptation

Paper
Source Code

  • Unsupervised DA (UDA)
  • 提出了一种新的领域适应对抗训练方法,该方法通过考虑特定任务的决策边界来调整目标领域的分布
  • 对方法做了广泛评估:数字分类,对象分类和语义分割

1. Introduction

Previous Methods:

  • domain classifier(i.e., a discriminator) and feature generator
  • Source and target samples are input to the same feature generator. The discriminator is trained to discriminate the domain labels of the features generated by the generator whereas the generator is trained to fool it

对抗训练,判别器被训练用来区分不同域的特征;生成器被训练用来欺骗判别器,即拉近两域分布,让判别器区分不出特征来自哪个域。

However:

  • This method should fail to extract discriminative features because it do not consider the decision boundary.

如图左,只考虑了拉近目标域和源域的分布,并没有考虑具体任务的决策边界。
在这里插入图片描述

因为只考虑拉近两个域的分布,所以在分类边界会存在不能准确分类的模糊特征。

Proposed Method:

  • task-specific classifiers and a feature generator
  • task-specific classifiers: Two classifiers try to classify source samples correctly and, simultaneously, are trained to detect the target samples that are far from the support of the source

由于远离支持点的样本没有被明确的分到哪一个类中,没有区分特性。所以提出用特定任务分类器当作判别器。

  • 特定任务分类器:两个分类器被训练用于源域的正确分类,同时被训练用于检测远离源域支持点的目标域样本

依然采用判别器和生成器对抗训练的方法,生成器被训练用来欺骗判别器,即要让它生成目标特征,并让这个特征更靠近源域支持点(图右)。

2. Related Work

略。

3. Method

3.1 Overall Idea

要让生成器的特征更远离分类边界(靠近源域支持)

How to detect target samples far from the support?

在训练开始就初始化两个不同的分类器(已经在源域分类准确),利用这两个分类器在目标样本预测上的差异来检测这些远离支持点的目标样本,越是靠近分类边界的样本,在两个分类器的分类结果差异就越大,如图中黄色区域。
在这里插入图片描述

这样,只要找到两个分类器的预测差异的一种度量,固定分类器,去训练特征生成器,就可以让生成的特征更靠近源域支持点
在这里插入图片描述

让分类器(F1、F2)能更好的找到远离源域支持的目标样本

要让F1和F2在准确分类的前提下、最大化输出特征的差异。如果没有这一步,两个分类器可能会变得非常相似,就不能很好的区分靠近边界的目标样本了。
在这里插入图片描述

重复以上对抗性的学习步骤

如图,加强分类器输出差异,再以以最小化差异(远离黄区)为目标训练生成器,再加强分类器,再训练生成器…最终,目标样本通过生成器后的特征将靠近源域支持点。注意,在开始这样的对抗训练之前,首先有一个在源域上训练的过程,保证生成器和分类器在源域上的分类结果是正确的
在这里插入图片描述

3.2 Discrepancy Loss

  • F1、F2的输出为K个类softmax后的值,本文用两个分类器概率输出之差的绝对值(L1距离)作为差异损失:
    d ( p 1 , p 2 ) = 1 K ∑ k = 1 K ∣ p 1 k − p 2 k ∣ {d(p_{1},p_{2})} =\frac{1}{K}\sum_{k=1}^{K}|p_{1_{k}}-p_{2_{k}}| d(p1,p2)=K1k=1Kp1kp</

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值