半监督学习是一种介于监督学习和无监督学习之间的机器学习方法。它利用少量的标注数据(有监督数据)和大量的未标注数据(无监督数据)来进行模型训练,从而在标注数据不足的情况下,提升模型的性能。
半监督学习的特点
- 数据特性:
- 标注数据成本高(如需要人工标注)。
- 未标注数据易得且数量庞大。
- 目标:
- 使用未标注数据改进监督学习模型的性能。
- 假设:
- 相似性假设(Cluster Assumption):相似的数据点有相同的类别。
- 平滑性假设(Smoothness Assumption):靠近的样本具有相似的输出。
- 流形假设(Manifold Assumption):数据点在低维流形上分布。
半监督学习的算法分类
1. 基于生成模型
使用生成模型捕捉数据分布,从而利用未标注数据。
典型方法:
- 高斯混合模型(GMM)
- 变分自编码器(VAE)
2. 自训练(Self-training)
- 思路:
- 使用初始标注数据训练一个模型;
- 让模型对未标注数据进行预测,将置信度高的预测结果作为伪标签;
- 使用新增的伪标签更新模型。
- 优点:简单易实现。
- 缺点:伪标签错误会导致模型退化。
3. 协同训练(Co-training)
- 思路ÿ