[cvpr2017]Joint Geometrical and Statistical Alignment for Visual Domain Adaptation

介绍了一种名为JointGeometricalandStatisticalAlignment(JGSA)的框架,该框架旨在通过学习源域和目标域上的耦合投影来减少两者之间的统计和几何差异。此方法适用于非监督情况,并结合了最大化目标域方差、保留源域判别信息、最小化分布差异及子空间差异等策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

线性判别分析
线性判别分析LDA原理总结
三个散度矩阵:



LDA上的三个散度矩阵

introduction

  • 作者提出了一个称为Joint Geometrical and Statistical Alignment (JGSA)的框架,用于减少source domain和target domain之间的统计量上和几何上的差异(shift)
  • 具体来说,就是学习source domain和target domain上的两个(耦合的?)投影(coupled projections),将source domain和target domain映射到一个低维空间当中,同时减少几何移位(geometrical shift)和分布移位(distribution shift)
  • 本文仅仅讨论非监督情况
  • 常见的域适应包括基于实例(instance-based)的适应、基于特征表示( feature representation)的适应、基于分类器(classifier-based )的适应,其中在非监督的情况下,因为没有target labels,所以基于分类器的适应是不可行的。
    • 通常分布差异(distribution devergence)可以通过基于实例(instance-based)的适应,比如对source domain中的样本的权重重新加权
    • 或者可以通过特征表示的方法(feature representation/transformation)的方式,将source domain和target domain的特征投影到第三个使得分布的偏差较小的domain当中。
    • 基于实例(instance-based)的方法需要比较严格的假设:1)source domain和target domain的条件分布是相同的,2)source domain中的某些部分数据可以通过重新加权被重用于目标域中的学习。
    • 基于特征表示(feature representation/transformation)的s适应的假设则相对来说更弱一点,仅仅假设存在一个使得source domain和target domain的分布相似的公共空间。
  • 本文采用基于特征变换(feature representation/transformation)的方法
  • 有两大类特征变换的方法:1)以数据为中心(data centric methods );2)以子空间为中心(subspace centric methods)
    • 以数据为中心的方法(data centric methods ) 寻求一个统一的转换,将数据从source domain和target domain投影到域不变空间(domain invariant space)当中,以求减少source domain和target domain上数据的分布差异(distributional divergence),并且同时保留原始空间当中的数据属性
    • 以数据为中心的方法(data centric methods )仅仅利用两个域中的共同特征(shared feature),然而当source domain和target domain的差异很大(have large discrepancy)的时候会导致失败,因为使得source domain和target domain分布一致的公共空间可能会不存在。
    • 以子空间为中心的方法(subspace centric
      methods)则是通过操纵两个域的子空间(比如建立线性映射,或者使用类似grassmann 这样的流形来进行映射)来减少域位移(domain shift),使得每个域的子空间都有助于最终映射的形成。
    • 作者认为,以子空间为中心的方法仅在两个域的子空间上进行操作,而不明确地考虑两个域的投影数据之间的分布偏移。(However, the subspace centric methods only manipulate on the subspaces of the two domains without explicitly considering the distribution shift between projected data of two domains.)
  • 作者在他的网络中学习两个耦合的投影(coupled projections),将source domain和target domain上的数据映射到相应的子空间。在映射之后:

    • 最大化target domain上数据的方差以保留target domain上数据的特征
    • 保留source domain上数据的判别信息(discriminative information)以使得有效地传送类别的信息
    • 最小化投影后的source domain和target domain上数据的条件分布差异(conditional distribution divergences),在统计上(statistically)减少域偏移(domain shift)
    • 使得两个域的投影之间的差异较小(子空间之间的差异较小),在几何上(geometrically)减少域偏移(domain shift)。

    • 1) the variance of target domain is maximized,
      2) the discriminative information of source domain is preserved,
      3) the divergence of source and target distributions
      is small, and 4) the divergence between source and target
      subspaces is small.

优势

  • 与基于数据的方法不同,作者的方法不需要强大的假设:统一变换可以减少分布偏移,同时保留数据属性。
  • 不同于基于子空间的适应方法,作者的方式不仅减少了子空间的几何移动(reduce the shift of subspace geometries)并且减少了两个域之间的分布偏移
  • 作者认为自己的方法可以很容易的扩展到kernelized(核方法)来处理域之间的偏移是非线性的情况

Joint Geometrical and Statistical Alignment(JGSA)

  • 定义(不假设有个统一的转换(unified transformation)):

Target Variance Maximization

Source Discriminative Information Preservation

  • 作者使用source domain上的标签信息来限制使得source domain上数据具有判别性


    • 最大化类间散度,最小化类内散度(就是聚类。。。。。。)

Distribution Divergence Minimization

(注意,以下使用的是映射以后的数据)

  • 使用MMD计算source domain和target domain的分布之间的差异。
  • 已经有人使用提出利用由source domain的分类器预测的target domain的伪标签(pseudo labels)来表示目标域中的类条件数据分布。然后迭代地改进target domain的伪标签,以进一步减少两个域之间条件分布的差异。
  • 通过合并边缘和条件分布差异最小化项,来使得分布散度最小化:

Subspace Divergence Minimization

  • 作者还希望能够减少source domain和target domain的子空间(用于映射的那个)之间的差异(就是上文的那个 A B):

    • 其中 ||||2F 是Frobenius范数

Overall Objective Function

  • 总的目标函数:
  • 作者希望更进一步地,希望target domain的映射 B 的数量更小(在我看来这个是方差更小):

Optimization

  • 目标函数和W的大小(放缩 W 不会影响目标函数)是无关的所以把上述的目标函数重写为:

    • W可以通过使用广义特征值分解得出。
    • 算法:
    • Kernelization Analysis

      experiment




### Hierarchical Consistency Learning in Unsupervised Domain Adaptation for Object Detection 无监督域适应(Unsupervised Domain Adaptation, UDA)是一种重要的机器学习技术,旨在解决当训练数据和测试数据来自不同分布时模型性能下降的问题。在目标检测领域,UDA 的研究主要集中在如何减少源域和目标域之间的差异,从而提高模型在未标注的目标域上的泛化能力。 #### 方法概述 Hierarchical Consistency Learning 是一种针对无监督域适应设计的方法,其核心思想在于通过多层次的一致性约束来增强特征表示的学习效果[^1]。具体来说,该方法利用了以下两个层次的一致性: 1. **像素级一致性**:通过对输入图像应用不同的变换(如旋转、缩放等),并强制要求这些变换后的预测结果保持一致,以此提升局部特征的鲁棒性和不变性。 2. **实例级一致性**:对于同一对象的不同视图或上下文变化,算法会施加额外的约束条件以确保它们对应相同的类别标签。这种机制有助于捕获更高级别的语义信息,并进一步缩小跨域差距[^3]。 此外,在实际实现过程中,通常还会引入对抗训练策略或者熵最小化原则作为辅助手段,共同促进全局最优解的收敛过程[^2]。 #### 技术细节 以下是 hierarchical consistency learning 中涉及的一些关键技术点及其作用说明: - **结构正则化的深度聚类 (Structurally Regularized Deep Clustering)** 此部分负责构建紧凑且分离良好的簇空间,使得相似样本能够聚集在一起而相异样本彼此远离。这一步骤可以看作是从低维嵌入向量中提取潜在模式的过程之一。 - **自监督预训练 (Self-Supervised Pretraining)** 使用大量未标记的数据预先训练网络参数,以便更好地初始化后续微调阶段所需的权重矩阵。这种方法不仅减少了对手动标注的需求,同时也提高了最终系统的稳定性与效率。 - **多视角推理 (Multi-view Inference)** 基于多个随机采样的子区域生成独立但互补的信息片段集合;随后将其组合起来形成完整的物体描述符。此操作有效缓解了因遮挡等因素引起的误判风险。 下面给出一段简单的伪代码展示上述流程的核心逻辑: ```python def hierarchical_consistency_learning(source_data, target_data): # Step 1: Initialize model with self-supervision pretrained_model = pretrain_on_unlabeled(target_data) # Step 2: Perform clustering and alignment clustered_features = structurally_regularize(pretrained_model.extract_features(target_data)) # Step 3: Enforce pixel-level & instance-level consistencies for epoch in range(num_epochs): for batch in zip(source_data, target_data): loss_pixel = compute_pixel_level_loss(batch) loss_instance = compute_instance_level_loss(clustered_features, batch) total_loss = loss_pixel + lambda * loss_instance optimizer.zero_grad() total_loss.backward() optimizer.step() return pretrained_model.finetune_with_alignment(total_loss) ``` #### 实验验证 为了评估所提方案的有效性,研究人员选取了几组公开可用的大规模视觉基准集进行了对比实验。结果显示,在多种复杂场景下(例如白天到夜晚转换、晴天转雨天等情况),采用 hierarchical consistency learning 后取得显著优于传统迁移学习基线的结果。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值