ICML2019: Domain Agnostic Learning with Disentangled Representations

探讨了单一源域与多目标域的适应性问题,提出一种结合变分自编码器、对抗学习及互信息最小化的新方法,以实现特征的领域无关性和类别无关性解耦。

ICML2019: Domain Agnostic Learning with Disentangled Representations

引言

目前的domain adaptation考虑了两种情况:single source & single target(认为源域为一种分布,目标域为一种分布,进行adapt); multi-souce & single target(存在多个源域且为不同的分布,目标域为一种分布,进行adapt)。还没有方法考虑single source & multi-target的问题,本文对解决该问题进行了探讨。 (PS. 目前还没看到解决multi-source & multi-target的方法)。

Architecture ##在这里插入图片描述

由上图,首先输入样本,经过一个generator G,变换为特征向量fGf_GfG,然后经过disentangler D,进行特征的disentanglement:

  • 抽取领域无关(domain-invariant)的特征;
  • 使用class disentanglement移除类别无关(class-irrelevant)的特征;
  • 进一步地,减少两个分布间的互信息(mutual information)进一步加强进行特征的disentanglement。

下面我们具体来看下。

变分自编码器

上面说的generator G,实际上就是VAEs的编码部分,将特征编码到一个高斯分布。然后经过reconstructor(图中粉色梯形)进行重构。 对于得到的每一个f^(G)\hat{f}(G)f^(G),VAE的损失函数为:
在这里插入图片描述
该损失并不能保证domain-invariant或者class disentanglement,只是为了确保特征向量服从高斯分布。

Class Disentanglement

这里所谓的类别无关的,指的是剔除掉对于我们最终的分类没有用的信息,比如背景。这里通过对抗学习实现,进行分步优化。首先训练disentangler D和class identifier(图中黑色的三角),使得class identifier能尽可能的识别,使用交叉熵损失:
在这里插入图片描述
对于fdif_{di}f

评论 2
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值