《重新审视深度部分标签学习中的一致性正则化》2022年ICML论文精读

摘要

我们提出了一种新的正则化训练框架,该框架针对非候选标签采用有监督学习,同时对候选标签引入一致性正则化。具体而言,我们通过将一个实例的多个增强输出与自适应推断的共形标签分布相匹配来实现正则化,其中共形标签分布可通过闭式解高效计算。在多个基准数据集上的实验结果表明,所提方法在性能上超越了现有最先进的技术。


1. 引言

传统的正则化训练方法通常通过监督损失和正则化项的组合优化模型参数。本文提出了一种创新框架,结合非候选标签的有监督学习和候选标签的一致性正则化,利用数据增强和共形标签分布提升模型性能。本文将详细阐述实现方法、理论基础及实验验证。


2. 方法论

2.1 对实例进行多个增强输出

实现方式:通过数据增强技术为每个实例生成多个增强版本。具体采用AutoAugment和Cutout两种策略:

  1. 从AutoAugment的增强策略池中随机选择一个策略,生成中间增强结果;
  2. 对中间结果应用Cutout,进一步增加多样性。
    最终,每个实例 x x x生成增强集合 A ( x ) = { A u g i ( x ) ∣ 1 ≤ i ≤ K } A(x) = \{Aug_i(x) | 1 \leq i \leq K\} A(x)={Augi(x)∣1iK},为一致性训练提供多样化输入。

2.2 共形标签分布的定义

定义:共形标签分布 P P P是一个针对实例 x x x的标签概率分布,满足:

  • ∑ k ∈ S p k = 1 \sum_{k \in S} p_k = 1 kSpk=1(候选标签集 S S S内概率和为1);
  • ∀ k ∉ S , p k = 0 \forall k \notin S, p_k = 0 k/S,pk=0(非候选标签概率为0)。
    该分布指导增强版本的一致性训练,并通过双层优化动态迭代更新。

初始化:初始分布为均匀分布:
p k = { 1 ∣ S ∣ if  k ∈ S , 0 otherwise. p_k = \begin{cases} \frac{1}{|S|} & \text{if } k \in S, \\ 0 & \text{otherwise.} \end{cases} pk={S10if kS,otherwise.

优化解:通过拉格朗日乘数法,最优分布 p ∗ p^* p的闭式解为:
p k ∗ = ( ∏ z ∈ A ( x ) g k ( z ) ) 1 ∣ A ( x ) ∣ ∑ j ∈ S ( ∏ z ∈ A ( x ) g j ( z ) ) 1 ∣ A ( x ) ∣ , p_k^* = \frac{\left(\prod_{z \in A(x)} g_k(z)\right)^{\frac{1}{|A(x)|}}}{\sum_{j \in S} \left(\prod_{z \in A(x)} g_j(z)\right)^{\frac{1}{|A(x)|}}}, pk=jS(zA(x)gj(z))A(x)1(zA(x)gk(z))A(x)1,
其中 g k ( z ) g_k(z) gk(z)为模型对增强实例 z z z的输出, ∣ A ( x ) ∣ |A(x)| A(x)为增强集合的基数。


2.3 增强输出与共形标签分布的匹配

方法:通过最小化KL散度实现匹配。正则化项定义为:
Ψ ( x , S ) = ∑ z ∈ A ( x ) K L ( p ∥ g ( z ) ) , \Psi(x, S) = \sum_{z \in A(x)} KL(p \| g(z)), Ψ(x,S)=zA(x)KL(pg(z)),
其中 p p p为共形标签分布, g ( z ) g(z) g(z)为增强实例 z z z的模型输出。通过优化模型参数,使 g ( z ) g(z) g(z)趋近于 p p p,从而确保一致性。


2.4 闭式解及其在共形标签分布推断中的应用

闭式解定义:闭式解是指通过有限次解析运算得到的精确解。本文证明损失函数 L ( θ , p ) L(\theta, p) L(θ,p)关于 p p p的凸性,利用拉格朗日乘数法推导出 p ∗ p^* p的闭式解(见公式2.2节)。

自适应推断:在训练过程中,每轮迭代根据当前模型输出 g ( z ) g(z) g(z),按闭式解公式更新 p ∗ p^* p。这种自适应性通过双层优化实现:
arg ⁡ min ⁡ θ   L ( θ , p ∗ ) , s.t.   p ∗ = arg ⁡ min ⁡ p   L ( θ , p ) , ∑ k ∈ S p k = 1 ,   p k = 0 ,   ∀ k ∉ S . \begin{aligned} & \underset{\theta}{\arg \min} \, \mathcal{L}(\theta, p^*), \\ & \text{s.t.} \, p^* = \underset{p}{\arg \min} \, \mathcal{L}(\theta, p), \\ & \sum_{k \in S} p_k = 1, \, p_k = 0, \, \forall k \notin S. \end{aligned} θargminL(θ,p),s.t.p=pargminL(θ,p),kSpk=1,pk=0,k/S.
内层优化求解 p ∗ p^* p,外层优化更新模型参数 θ \theta θ,两者交替进行。


2.5 正则化项的数学表达

正则化项可形式化为:
ζ ( x j ) = ∥ x j − ∑ i w i j x i ∥ + ∥ f ( x j ) − ∑ i w i j f ( x i ) ∥ , \zeta(x_j) = \left\| x_j - \sum_i w_{ij} x_i \right\| + \left\| f(x_j) - \sum_i w_{ij} f(x_i) \right\|, ζ(xj)= xjiwijxi + f(xj)iwijf(xi) ,
其中 w i j w_{ij} wij为权重矩阵元素, f ( x i ) f(x_i) f(xi)为归一化的标签置信度向量,权重矩阵与模型参数联合优化。


2.6 总体损失函数

总体损失函数由监督损失和正则化项组成:
L ( x , S ) = L sup ( x , S ) + γ ( t ) ⋅ Ψ ( x , S ) , \mathcal{L}(x, S) = \mathcal{L}_{\text{sup}}(x, S) + \gamma(t) \cdot \Psi(x, S), L(x,S)=Lsup(x,S)+γ(t)Ψ(x,S),
其中:

  • 监督损失: L sup ( x , S ) = − ∑ k ∉ S log ⁡ ( 1 − g k ( x ) ) \mathcal{L}_{\text{sup}}(x, S) = -\sum_{k \notin S} \log(1 - g_k(x)) Lsup(x,S)=k/Slog(1gk(x))
  • 平衡因子: γ ( t ) = min ⁡ { t T ′ λ , λ } \gamma(t) = \min\left\{\frac{t}{T'} \lambda, \lambda\right\} γ(t)=min{Ttλ,λ},随训练轮次 t t t动态调整。

2.7 数据增强策略

策略:采用AutoAugment和Cutout组合增强数据:

  1. 从AutoAugment策略池随机选择增强操作;
  2. 对结果应用Cutout,保留语义信息的同时增加多样性。
    该方法适用于图像分类任务,类似技术也可扩展至文本等领域(如反向翻译)。

3. 实验设置

3.1 数据集

实验基于五个基准图像数据集:

  • Kuzushiji-MNIST
  • Fashion-MNIST
  • SVHN
  • CIFAR-10
  • CIFAR-100

3.2 算法流程

步骤操作
输入训练集 D = { x i , S i } i = 1 n D = \{x_i, S_i\}_{i=1}^n D={xi,Si}i=1n,分类器 g g g及参数 θ \theta θ,轮数 T T T,迭代次数 I I I,增强数量 K K K,平衡因子 λ \lambda λ
过程1. 初始化 p p p(公式2.2);
2. 外层循环 t = 1 t=1 t=1 T T T
  3. 内层循环 i = 1 i=1 i=1 I I I
    4. 从 D D D随机抽取批次 B B B
    5. 计算 p ∗ p^* p(公式2.2);
    6. 计算损失(公式2.6);
    7. 梯度下降更新 θ \theta θ
输出训练好的分类器 g g g

4. 讨论

4.1 流行正则化方法的对比

传统方法(如半监督学习)通过监督损失和正则化损失联合优化,而本文通过互补标签和一致性正则化避免伪标签偏差,表现出更优性能。

4.2 方法优势

  • 闭式解提高计算效率;
  • 自适应共形标签分布增强一致性;
  • 数据增强策略提升鲁棒性。

5. 结论

本文提出的正则化框架通过结合有监督学习和一致性正则化,在基准数据集上取得了优异结果。未来可探索更多数据类型的增强策略及优化算法。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阳光明媚大男孩

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值