Gaussian Mixture Model(GMM) using EM Algorithm 使用EM算法求解高斯混合模型

本文介绍如何使用EM算法实现高斯混合模型,详细解释了模型中的参数更新过程及数学推导,适用于多高斯分布的数据分类。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Gaussian Mixture Model using EM Algorithm

E-M 算法有个典型的应用,就是高斯混合模型,适用于对多个高斯分布的数据进行分类。

Gaussian Mixture Model (k-mixture):

p(X|θ)=i=1kαlN(X|μl,Σl)(14)(14)p(X|θ)=∑i=1kαlN(X|μl,Σl)

l=1kαl=1(15)(15)∑l=1kαl=1

θ={α1,...αk,μ1,...μk,Σ1,...Σk}(16)(16)θ={α1,...αk,μ1,...μk,Σ1,...Σk}

由E-M算法我们有:

θ(g+1)=argmaxθzlog(P(X,Z|θ))P(Z|X,θ(g))dz(17)(17)θ(g+1)=arg⁡maxθ⁡∫zlog(P(X,Z|θ))∗P(Z|X,θ(g))dz

又由混合高斯分布,我们有:

P(X,Z|θ)=i=1nP(xi,zi|θ)=i=1nP(xi|zi,θ)P(zi|θ)=i=1nαziN(xi|μzi,Σzi)(18)(18)P(X,Z|θ)=∏i=1nP(xi,zi|θ)=∏i=1nP(xi|zi,θ)⋅P(zi|θ)=∏i=1nαziN(xi|μzi,Σzi)

P(Z|X,θ)=i=1nP(zi|xi,θ)=i=1nP(xi|zi,θ)kl=1P(xi|zl,θ)=i=1nαziN(xi|μzi,Σzi)kl=1αlN(xi|μl,Σl)(19)(19)P(Z|X,θ)=∏i=1nP(zi|xi,θ)=∏i=1nP(xi|zi,θ)∑l=1kP(xi|zl,θ)=∏i=1nαziN(xi|μzi,Σzi)∑l=1kαlN(xi|μl,Σl)

可以看到,虽然增加了隐变量Z, 但是P(X,Z|θ)P(X,Z|θ)P(X|θ)P(X|θ)显得更简单。

把上面两个式子代入EM迭代式子里,有:

θ(g+1)=zi=1ki=1nlogP(xi,zi|θ)P(zi|xi,θ(g))=l=1ki=1nlog[αlN(xi|μl,Σl)]P(l|xi,θ(g))(20)(20)θ(g+1)=∑zi=1k∑i=1nlogP(xi,zi|θ)⋅P(zi|xi,θ(g))=∑l=1k∑i=1nlog[αlN(xi|μl,Σl)]⋅P(l|xi,θ(g))

代入高斯混合模型的前提,最后针对各个参数求导,令其为0. 最后有以下公式:

α(g+1)l=1Ni=1NP(l|xi,θ(g))(21)(21)αl(g+1)=1N∑i=1NP(l|xi,θ(g))

μ(g+1)l=Ni=1xiP(l|xi,θ(g))Ni=1P(l|xi,θ(g))(12)(12)μl(g+1)=∑i=1NxiP(l|xi,θ(g))∑i=1NP(l|xi,θ(g))

Σ(g+1)l=Ni=1[xiμ(g+1)l][xiμ(g+1)l]TP(l|xi,θ(g))Ni=1P(l|xi,θ(g))(13)(13)Σl(g+1)=∑i=1N[xi−μl(g+1)][xi−μl(g+1)]TP(l|xi,θ(g))∑i=1NP(l|xi,θ(g))
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值