少标签数据下的半监督学习方法
在机器学习领域,获取大量有标签的数据往往是一项既昂贵又耗时的任务。因此,如何利用少量有标签数据和大量无标签数据进行学习成为了一个重要的研究方向。本文将介绍几种常见的半监督学习方法,包括如何缓解确认偏差、熵最小化、协同训练、图上的标签传播、一致性正则化以及深度生成模型等。
1. 缓解确认偏差
在半监督学习中,模型可能会陷入确认偏差的问题,即模型不断确认自己关于决策规则的(错误)偏差,导致在预期的分类任务中表现越来越差,最终学习到一个完全无效的解决方案。
为了缓解确认偏差,一种常见的方法是使用“选择度量”。假设模型为每个可能的类别输出概率,一种常用的选择度量是仅保留最大类别概率高于某个阈值的伪标签。如果模型的类别概率估计是经过良好校准的,那么这种选择度量将只保留(至少根据模型)极有可能正确的标签。更复杂的选择度量可以根据问题领域进行设计。
2. 熵最小化
自训练具有鼓励模型输出低熵(即高置信度)预测的隐含效果。在使用交叉熵损失的在线设置中,这种效果最为明显,模型在无标签数据上最小化以下损失函数:
[L = -\max_c \log p_{\theta}(y = c|x)]
其中 (p_{\theta}(y|x)) 是模型在输入 (x) 下的类别概率分布。当模型将所有类别概率都分配给单个类别 (c^ ) 时,即 (p(y = c^ |x) = 1) 且 (p(y \neq c^*)|x) = 0),该函数达到最小值。
与自训练密切相关的一种半监督学习方法是熵最小化,它最小化以下损失函数:
[L = -\sum_{c=1}^{C} p_{\th
超级会员免费看
订阅专栏 解锁全文
2136

被折叠的 条评论
为什么被折叠?



