机器学习笔记——11 混合高斯模型(Mixtures of Gaussian):利用EM算法估计参数

本文详细介绍了混合高斯模型的概念,其中样本数据来自多个高斯分布,利用EM算法解决参数估计的难题。通过E步和M步的迭代更新,逐步优化模型参数,确保算法收敛。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器学习笔记——11 混合高斯模型(Mixtures of Gaussian):利用EM算法估计参数

本文主要介绍混合高斯模型,它涉及到对个分布来源,因此参数的估计将是一个难题。本文着重介绍如何利用EM算法对参数进行估计。

混合高斯模型(Mixtures of Gaussian)

在我们之前接触的大部分分布中,样本数据大部分独立同分布与某个分布。但是混合高斯模型中,样本数据并不是来自一个单一的高斯分布,而是来自多个高斯分布。我们假设共有kkk个高斯分布,如果第i个样本x(i)x^{(i)}x(i)来自第j个高斯分布,记z(i)=jz^{(i)} = jz(i)=j。在高斯混合模型中,p(x∣z=j)=N(uj,Σj)p(x|z = j) = N(u_j,\Sigma_j)p(xz=j)=N(uj,Σj)。而参数zzz服从多项分布Multinomial(ϕ)Multinomial(\phi)Multinomial(ϕ)。即zzzjjj的概率为ϕj\phi_jϕj。由此我们可以导出混合高斯的边缘分布为:m(x)=∑j=1kp(z=j)p(x∣z=j)=∑j=1kϕjp(x∣uj,Σj)m(x) = \sum_{j = 1}^{k}p(z = j)p(x|z = j) = \sum_{j = 1}^{k}\phi_jp(x|u_j,\Sigma_j)m(x)=j=1kp(z=j)p(xz=j)=j=1kϕjp(xuj,Σj)因此样本的对数似然函数为:ℓ(ϕ,u,Σ)=log⁡∏i=1mm(x(i))=∑i=1mlog⁡m(x(i))=∑i=1mlog⁡∑j=1kϕjp(x∣uj,Σj)\begin{aligned} \ell(\phi,u,\Sigma) = & \log \prod_{i = 1}^{m}m(x^{(i)}) \\ =& \sum_{i = 1}^{m}\log m(x^{(i)}) \\ =& \sum_{i = 1}^{m}\log \sum_{j = 1}^{k}\phi_jp(x|u_j,\Sigma_j) \\ \end{aligned}(ϕ,u,Σ)===logi=1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值