半监督学习(三)——混合模型

本文介绍了半监督学习中的混合模型方法,特别是利用Mixture Models和EM算法进行参数估计。通过最大似然估计(MLE)和EM算法解决高斯混合模型的优化问题,阐述了在半监督学习中如何结合有标签和无标签数据来提升模型性能。同时,讨论了混合模型的假设和聚类后标记方法,强调了正确选择生成模型的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Semi-Supervised Learning

半监督学习(三)

            方法介绍               

Mixture Models & EM

    无标签数据告诉我们所有类的实例混和在一起是如何分布的,如果我们知道每个类中的样本是如何分布的,我们就能把混合模型分解成独立的类,这就是mixture models背后的机制。今天,小编就带你学习半监督学习的混合模型方法。

混合模型 监督学习   

  首先,我们来学习概率模型的概念,先来看一个例子:

  • Example 1. Gaussian Mixture Model with Two Components

        训练数据来自两个一维的高斯分布,如下图展示了真实的分布以及一些训练样本,其中只有两个有标签数据,分别标记为正负。

         假如我们知道数据来自两个高斯分布,但是不知道参数(均值,方差,先验概率等),我们可以利用数据(有标签和无标签)对两个分布的参数进行估计。注意这个例子中,带标签的两个样本实际上带有误导性,因为它们都位于真实分布均值的右侧,而无标签数据可以帮助我们定义两个高斯分布的均值。参数估计就是选择能 最大限度提高模型生成此类训练数据概率 的参数。

        更规范化地解释:要预测样本x的标签y,我们希望预测值能最大化条件概率p(y|x),由条件概率的定义,可知对于所有可能的标签y,image.png_www.wityx.com,且image.png_www.wityx.com,如果我们想要最小化分类错误率,那么我们的目标函数就是image.png_www.wityx.com,当然了,如果不同类型的误分类导致的损失不同(如,将良性肿瘤错误分类为恶性),那么上述的最小化期望误差可能不是最佳策略,我

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值