域泛化(Domain Generalization)相关知识学习

文章探讨了域泛化(DG)的挑战,特别是如何学习领域不变的特征表示和特征解纠缠。介绍了基于核的方法、领域对抗性学习、显式特征对齐和不变风险最小化等DG技术。文章还提到了最新研究,指出Transformer-based架构在DG任务中可能优于CNN,尤其是当使用简单的ERM训练时。最后,文章提出了一种名为GeneralizableMixture-of-Experts(GMoE)的新模型,该模型利用稀疏混合专家来增强领域泛化能力。


Author:S-Lab, NTU + HKUST


一、域泛化综述

1)Domain定义

\quad 一个域(Domain)是由从一个分布中采样的数据组成的。下面定义中,一个S就是一个domain。
在这里插入图片描述
\quad 一些数学定义如下:
在这里插入图片描述

2)Domain Generalization(DG)定义

\quad 如下面这张图展示一样:领域泛化的目标是从一个或几个不同但相关的领域(训练集)学习一个模型,在unseen的测试领域上得到很好的泛化。(在DG的定义中,“different but related” 是重点,就是说domains虽然不同,但是一定得相关,每个domain包含的类别其实是相同的。)
在这里插入图片描述
\quad DG的定义如下,目的是在M个source domain上训练后,得到一个泛化性的预测函数h,使得其在unseen test domain上的误差最小。
在这里插入图片描述
在这里插入图片描述
\quad 也就是说,在DG的每一个domain中,所包含的类别是相同的,但是它们的联合分布不同,也就是获取每个域S的采样分布 P X Y P_{XY} PXY不同。直观的体现如下图,每个域包含的类别相同,但是表现的风格不同,比如sketch,cartoon和art painting等,每种风格就叫做一种域。
在这里插入图片描述

3)一些相关领域与DG的区别

在这里插入图片描述

  • 迁移学习(Transfer learning):迁移学习在源任务(source task)上训练一个模型,旨在提高模型在 不同但相关 的目标域/任务上的性能(different but related target domain/task)。预训练-微调就是迁移学习常用的策略,其中源域和目标域的任务不同,且在训练时目标域可见在DG中,目标域不能被访问,而且训练和测试任务通常是相同的,但它们的分布却不同
  • 域自适应(Domain adaptation):DA的目标是利用现有的训练源域(s)使给定目标域上的性能最大化。DA和DG的区别在于,DA可以访问目标域数据,而DG在训练过程中看不到这些数据。域适应可以看作是 transfer learning的变体,对于一个source-trained model,DA希望使用来自Target Domain的 sparse(少量带标签) 或 unlabelled data来修正或微调这个模型。这个微调的过程叫做Adaptation,相当于对在Source Domain上已经训练好的模型,使用Target Domain中的一些数据进行modify(or, finetuning),从而使模型能够适应新的领域,克服DS问题。
  • 元学习(Meta learning):元学习是一种通用的学习策略,可以通过模拟training domain的meta-train和meta-test任务,来提高DG的性能。
  • 零样本学习(Zero-shot learning)zero-shot的类别不同,DG的类别相同。zero-shot不关注domain的相不相同,关注的是类别的相不相同,只要测试时的class是unseen的即可。也就是说,零样本学习(zero-shot learning) 学习在测试时碰到的类别是全新的,是在训练时未见过的类别。而DG(domain generalization)在训练和测试时的class是相同的,只是测试时同一类别所处的domain是不同的,是在训练时没有见过的domain。此外,还有小样本学习(few-shot learning),它关注的是在样本数量有限下的分类,训练时会在拥有少量样本的大量类别上训练,在测试时,对于新的类别,只需要在几个样本上微调,就可以实现这一类别的识别。

4)领域泛化的方法

\quad DG主要分为三类方法:数据操作、表征学习、学习策略。如下图所示。
在这里插入图片描述
\quad 数据操作:指的是通过对数据的增强和变化使训练数据得到增强。这一类包括数据增强和数据生成两大部分。数据增强基于输入数据的增强、随机化和转换来增加样本,数据生成通过VAE或GAN等生成不同的样本以帮助泛化。

\quad 表征学习目的在于学习领域不变特征(Domain-invariant representation learning),

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值