数据分布矫正

本文深入探讨了监督学习中域适应的问题,特别是在训练集与测试集分布不一致的情况下的解决方案。提出了三种域适应方法:目标转移(Target Shift)、条件转移(Conditional Shift)及广义目标转移(Generalized Target Shift),并介绍了通过数据转换和重加权实现分布校正的技术。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


  • 监督学习的目的就是从训练集
    Dtr={ (xtr1,ytr1),...,(xtrm,ytrm)}X×Y

    中寻找出一个合适的模型f使它适用于测试集
    Dte={ (xte1,yte1),...,(xten,yten)}X×Y

    其中ytei是未知的。很多情况下训练集和测试集并不是同分布,例如PtrXYPteXY,因此需要引入域适应算法来解决此类问题。

85% 85%

5工况标签分布图 &nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp&nbsp 5工况数据分布图


以JDA为例,进行域适应

JDAJDA+调整Y分布
工况1-524.45
工况1-416.41

目录



[toc]

  • Why and how to correct for target/conditional shift?

  • Distribution shift correction by data transformation/reweighting

  • Correction for target shift
  • Location-scale generalized target shift
  • Simulations

Why and how to correct for target/conditional shift?

  • why
    假设在PtrXYPteXYPtr(X)Pte(X)情况下从X预测Y

  • how
    针对上述问题,论文提出三种域适应方法

    • Target shift(TarS)
    • Conditional Shift(ConS)
    • Generalized target shift(GeTarS)

  • Target shift(TarS)
    PtrXY=PteXY 并且Ptr(Y)Pte(Y)
  • Conditional Shift(ConS)
    PtrXYPteXY 并且Ptr(Y)=Pte(Y)
  • Generalized target shift(GeTarS)
    PtrXYPteXY 并且Ptr(Y)Pte(Y)

Distribution shift correction by data transformation/reweighting


为了从训练集Dtr={xi,yi}mi=1中寻找出回归、分类器f(x),在测试集上可以精准预测。文中提出两种方法:

1. Importance reweighting


2.Sample transformation and reweighting

Importance reweighting

最小测试集上的化期望损失函数

R[Pte,θ,l(x,y,θ)]=E(x,y)PteXY[l(x,y,θ)]=
E(x,y)PtrXYPteY/PtrYPteXY/PtrXYl(x,y,θ)dxdy
  • PteXY被包含于PtrXY
  • PXY分解为PYPXY而不是PXPYX
  • θ表示损失函数l(x,y,θ)的参数
  • β(y)=PteY/PtrY,而且,γ=PteXY/PtrXY

最终需要使得经验损失最小:

R^=i=1mβ(ytri)γ(xtri,ytri)l(xi,yi,θ)


Sample transformation and reweighting

在寻找一个转换器Γ使得:

Xnew=Γ(Xtr,Ytr)

并且使得PnewXY=PteXY

测试集上的期望损失为:

R[Pte,θ,l(x,y,θ)]=EPteXY[l(x,y,θ)]=PtrYβ(ytri)l(x,y,θ)dxdy=E(x,y)PtrYPnewxy[β(y)l(x,y,θ)]

Ytr在转化函数Γ中是一个关键,不同的Y可能导致Γ的不同


最终需要使得经验损失最小:

R^=i=1mβ(ytri)l(xnewi,ytri,θ)

Correction for target shift

目标是在PtrXY=PteXYPtrYPteY的情况下,寻找β(y)=PteY/PtrY,并且有如下几个假设:

  • 训练数据比测试数据丰富
  • Y只存在一种可能的分布,与Ptrx|y影响PteX
  • k,l分别是X,Y的核,并且是特有的

kernel mean matching

PX的核均值嵌入是在再生核希尔伯特空间(RKHS)中的一个点,可以通过下式计算得到:

μ[Px]=ExPX[ψ(X)]

其经验估计是:

μ[Px]=1mi=1mψ(xi)

120%

核均值嵌入


PXY的可以认为是从G空间到F空间的映射定义为:

U[PX]=CXYC1YY

其中CXY表示互协方差,CYY为自协方差,并且可以得到

μ[PX]=U[PXY]μ[PY]

经验估计为:

U^XY=Ψ(L+λI)1ΦT

为了使得PnewY=β(y)PtrY,需要在匹配PnewXPteX的过程中计算得出β(y)

β=argmin||μ[Pnew(X)]μ[Pte(X)]||

=U[Ptr(XY)]EYPtr(Y)[β(y)ϕ(y)]μ[Pte(X)]||

根据经验估计值计算上式的平方:

||U^XY1mi=1mβiϕ(yi)tr1nψ(xtei)||2

=1m2βTL(L+λmI)1K(L+λmI)1Lβ

2mn1TKc(L+λmI)1Lβ+const


βTL(L+λmI)1K(L+λmI)1L=J

1TKc(L+λmI)1L=M

问题可以等价为一个QP问题

min.12βTJβmnMβ

 s.t.      βi[0,B]并且|mi=1βim|mεB,ε是参数


Location-scale generalized target shift

假设:PYPXY都发生了改变,但是PXY仅仅在位置和尺度上发生了变化。

例如:   W(Ytr)=diag[w1(Ytr),...,wd(Ytr)],并且B(Ytr)=[b1(Ytr),...,bd(Ytr)]T



Thanks for watching

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值