【迁移学习】Agile Domain Adaptation——一种平衡运算资源和速度的深度迁移学习方法

Agile Domain Adaptation

背景

在现在的迁移学习工作中,一直有一个矛盾:准确率和运算成本之间的矛盾。在神经网络面对一个个的样本进行分类时,有的样本可能和训练数据非常相似,用很少的层数就可以分类出来,但有的可能和神经网络所见到的训练样本差别比较大,需要提取深层特征才能良好的分类。对于简单目标,进行深度特征提取就比较浪费运算资源了。所以有了这个工作。

领域自适应是迁移学习领域中一个非常热门的方向,其本意是用来解决训练集数据和实际应用时采集的数据的分布不同,导致模式识别系统效果不好,所以需要一类方法来自适应的来适应不同的应用环境。

现阶领域自适应方法大体上可以分成两个种类:传统方法和深度的方法。传统方法着重于迁移技术,比如数据分布的适应。深度的方法一遍着重于特征的提取,另一方面着重于通过端对端的方法来使知识自适应。在这些工作中无论是传统的方法还是深度的方法,都忽略了一个问题是我们不能将目标域中的数据以相同的处理流程来处理。在目标域中不同的数据分布和源域之间的相似性是不同的,数据分布相似的数据更容易被迁移,而数据分布差异较大的部分应当使用更多的运算能力来处理。如图1,有一部分数据和源域数据相似程度很高,我们可以认为数据分布比较相近,另一部分数据相似度较低,则分布相差较大同样分类难度更大。

在这里插入图片描述
图1

实现

现有的深度学习模型有一个特点,网络浅层的神经结构往往会学习出一些比较泛化局部的特征,而深层的网络往往会学习出比较全局的深层特征,对于相关的深度迁移学习模型也类似(如DAN,Deep adaption Networks),对于二者分布比较相近的数据用比较浅层的模型就可以处理了,对于数据分布差异比较大的数据,可以用整个模型。这种思想考虑到了源域数据和目标域数据之间不同数据的分布差异,而不是把全部的数据都一股脑的送到同一个模型当中。具体结构如图二。

在这里插入图片描述
图2
要实现这样一个网络主要需要解决两个问题:

  1. 得到一个具有多个出口的深度迁移网络,确定损失函数,同时可以进行正常的训练(可以用BP算法)。
  2. 确定一个评价准则,可以在实际应用中知道多个分类输出口哪一个是最优的,到了哪一个出口后面的就不需要在求了。

损失函数确定

在源域上,一个端到端的神经网络训练问题可以有如下的损失函数:
L s u p = 1 n s ∑ i = 1 n s J ( f ( x s , i ) , y s , i ) \mathcal{L}_{\mathrm{sup}}=\frac{1}{n_{s}} \sum_{i=1}^{n_{s}} J\left(f\left(\mathbf{x}_{s, i}\right), \mathbf{y}_{s, i}\right) Lsup=ns1i=1nsJ(f(xs,i),ys,i)
这种优化方法,随着损失函数的降低,可以使模型在源域上的效果更好,但是无法使训练出的模型在目标域上有更好的表现,所以需要考虑到源域和目标域的损失情况。
L exit  e = L sup  + λ L tran  \mathcal{L}_{\text {exit }_{e}}=\mathcal{L}_{\text {sup }}+\lambda \mathcal{L}_{\text {tran }} Lexit e=Lsup +λLtran 
和普通模型不同的是,在这个模型中有多个输出分类,所以需要考虑每一个端的优化问题。
L = ∑ ϵ = 1 m w ϵ L e x i t ϵ \mathcal{L}=\sum_{\epsilon=1}^{m} w_{\epsilon} \mathcal{L}_{\mathrm{exit}_{\epsilon}} L=ϵ=1mwϵLexitϵ
整体的损失函数形式就如上面所示,在实际中w可以都变成1,这可以认为是对每一个出口的重视程度都相同。
上面只是形式化了整个损失函数的结构。在这个工作当中,损失函数具体使用的是cross-entropy。
J ( y ^ , y ) = − 1 ∣ C ∣ ∑ c ∈ C y c log ⁡ y ^ c J(\hat{\mathbf{y}}, \mathbf{y})=-\frac{1}{|C|} \sum_{c \in C} y_{c} \log \hat{y}_{c} J(y^,y)=C1cCyclogy^c
其中 y ^ \hat{\mathbf{y}} y^是预测结果。
y ^ = softmax ⁡ ( f ( x ) ) = exp ⁡ ( f ( x ) ) ∑ c ∈ C exp ⁡ ( f ( x ) c ) \hat{\mathbf{y}}=\operatorname{softmax}(f(\mathbf{x}))=\frac{\exp (f(\mathbf{x}))}{\sum_{c \in C} \exp \left(f(\mathbf{x})_{c}\right)} y^=softmax(f(x))=cCexp(f(x)c)exp(f(x))
在这里,使用cross-entropy是经过深思熟虑的,这种方法的特性使得后面可以很好的区分哪一个出口的数据已经足够好不需要继续求解下面的出口了。
在迁移学习的部分,迁移部分的损失采用多核MMD。定义如下:
MMD ⁡ ( X s , X t ) = 1 n s 2 ∑ i = 1 n s ∑ j = 1 n s k ( x s , i , x s , j ) − 2 n s n t ∑ i = 1 n s ∑ j = 1 n t k ( x s , i , x t , j ) + 1 n t 2 ∑ i = 1 n s ∑ j = 1 n s k ( x t , i , x t , j ) \begin{aligned} \operatorname{MMD}\left(\mathbf{X}_{s}, \mathbf{X}_{t}\right) &=\frac{1}{n_{s}^{2}} \sum_{i=1}^{n_{s}} \sum_{j=1}^{n_{s}} k\left(\mathbf{x}_{s, i}, \mathbf{x}_{s, j}\right) \\-& \frac{2}{n_{s} n_{t}} \sum_{i=1}^{n_{s}} \sum_{j=1}^{n_{t}} k\left(\mathbf{x}_{s, i}, \mathbf{x}_{t, j}\right) \\ &+\frac{1}{n_{t}^{2}} \sum_{i=1}^{n_{s}} \sum_{j=1}^{n_{s}} k\left(\mathbf{x}_{t, i}, \mathbf{x}_{t, j}\right) \end{aligned} MMD(Xs,Xt)=ns21i=1nsj=1nsk(xs,i,xs,j)nsnt2i=1nsj=1ntk(xs,i,xt,j)+nt21i=1nsj=1nsk(xt,i,xt,j)
其中 k ( ⋅ ) k(\cdot) k()是希尔伯特核。
原始数据特征x上计算MMD,而最小化上式在匹配域自适应层生成的激活时是隐含的。在迁移学习中,鼓励域适应层生成的源激活和目标激活保持良好的对齐,以便层参数可以由两个域共享。因此,这里显式地最小化了层激活上的MMD 设 Z s l \mathbf{Z}_{s}^{l} Zsl Z t l \mathbf{Z}_{t}^{l} Ztl分别表示层l从源域和目标域生成的激活量,层激活量的MMD计算公式为:
L t r a n = 1 n s 2 ∑ i = 1 n s ∑ j = 1 n s ∏ l = 1 L k l ( z s , i l , z s , j l ) − 2 n s n t ∑ i = 1 n s ∑ j = 1 n t ∏ l = 1 L k l ( z s , i l , z t , j l ) + 1 n t 2 ∑ i = 1 n s ∑ j = 1 n s ∏ l = 1 L k l ( z t , i l , z t , j l ) \begin{aligned} \mathcal{L}_{\mathrm{tran}} &=\frac{1}{n_{s}^{2}} \sum_{i=1}^{n_{s}} \sum_{j=1}^{n_{s}} \prod_{l=1}^{L} k^{l}\left(\mathbf{z}_{s, i}^{l}, \mathbf{z}_{s, j}^{l}\right) \\ &-\frac{2}{n_{s} n_{t}} \sum_{i=1}^{n_{s}} \sum_{j=1}^{n_{t}} \prod_{l=1}^{L} k^{l}\left(\mathbf{z}_{s, i}^{l}, \mathbf{z}_{t, j}^{l}\right) \\ &+\frac{1}{n_{t}^{2}} \sum_{i=1}^{n_{s}} \sum_{j=1}^{n_{s}} \prod_{l=1}^{L} k^{l}\left(\mathbf{z}_{t, i}^{l}, \mathbf{z}_{t, j}^{l}\right) \end{aligned} Ltran=ns21i=1nsj=1nsl=1Lkl(zs,il,zs,jl)nsnt2i=1nsj=1ntl=1Lkl(zs,il,zt,jl)+nt21i=1nsj=1nsl=1Lkl(zt,il,zt,jl)
等价于:
L tran ⁡ = 2 n s ∑ i = 1 n s / 2 ( ∏ l = 1 L k l ( z s , 2 i − 1 l , z s , 2 i l ) + ∏ l = 1 L k l ( z t , 2 i − 1 l , z t , 2 i l ) ) − 2 n s ∑ i = 1 n s / 2 ( ∏ l = 1 L k l ( z s , 2 i − 1 l , z t , 2 i l ) + ∏ l = 1 L k l ( z t , 2 i − 1 l , z s , 2 i l ) ) \begin{array}{c}{\mathcal{L}_{\operatorname{tran}}=} \\ {\frac{2}{n_{s}} \sum_{i=1}^{n_{s} / 2}\left(\prod_{l=1}^{L} k^{l}\left(\mathbf{z}_{s, 2 i-1}^{l}, \mathbf{z}_{s, 2 i}^{l}\right)+\prod_{l=1}^{L} k^{l}\left(\mathbf{z}_{t, 2 i-1}^{l}, \mathbf{z}_{t, 2 i}^{l}\right)\right)} \\ {-\frac{2}{n_{s}} \sum_{i=1}^{n_{s} / 2}\left(\prod_{l=1}^{L} k^{l}\left(\mathbf{z}_{s, 2 i-1}^{l}, \mathbf{z}_{t, 2 i}^{l}\right)+\prod_{l=1}^{L} k^{l}\left(\mathbf{z}_{t, 2 i-1}^{l}, \mathbf{z}_{s, 2 i}^{l}\right)\right)}\end{array} Ltran=ns2i=1ns/2(l=1Lkl(zs,2i1l,zs,2il)+l=1Lkl(zt,2i1l,zt,2il))ns2i=1ns/2(l=1Lkl(zs,2i1l,zt,2il)+l=1Lkl(zt,2i1l,zs,2il))
计算过程如下:

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值