机器学习-周志华-个人练习13.3

本文探讨了机器学习中的混合专家模型,包括PM和GM两种类型,并重点解析了在广义混合模型下,采用EM算法进行参数更新的过程。针对不同数据完整性情况,介绍了EM-I和EM-II算法,用于处理含类标记和不含类标记的数据。通过拉格朗日乘子法优化混合系数,并给出高斯分布下模型参数的更新公式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

13.3 假设数据由混合专家(mixture of experts)模型生成,即数据是基于k个成分混合而得的概率密度生成:

p(xθ)=i=1kαip(xθi)(13.22)

其中, θ={ θ1,θ2,,θk} 是模型参数, p(xθi) 是第 i 个混合成分的概率密度,混合系数 αi0,ki=1αi=1 。假设每个混合成分对应一个类别,但每个类别可能包含多个混合成分。试推导相应的生成式半监督学习算法。


首先,我们假定:

  • 数据X 包含 M=l+u 个样本:X={ xj},j=1,,M
  • 所有样本中共有|C|个类别:cj表示样本的类别,cjC
  • 混合模型含有N个混合成分, {mj=i},i=1,,N 表示样本xj可能的混合成分,θi表示对应混合成分的模型参数,则相应模型可以表示为f(xjθi)=p(xjmj=i,θi)=p(xjθi)

则与书上公式(13.4)类似,在此处:

LL(DlDu)=(xi,cj)Dllnp(xj,cjθ)+xiDulnp(xjθ)=(xi,cj)Dllni=1Nαip(cjxj,mj=i,θi)p(xjmj=i,θi)+xiDulni=1Nαip(xjmj=i,θi)=(xi,cj)Dllni=1Nαip(cjxj,mj=i,θi)f(xjθi)+xiDulni=1Nαif(xjθi)(1)

接下来介绍一下题目中所说的 每个类别可包含多个混合成分的混合模型的具体表示。

首先,我们知道:

p(mj=ixj)=αip(xjθi)i=1Nαip(xjθi)(2)

根据( D. J. Miller and H. S. Uyar, 1996)的观点,主要有两种混合方法:

划分混合模型(The “Partitioned” Mixture Model, PM):
混合组分与各个类别具有硬划分的关系,即MiCk,其中Mi代表混合组分i,也就是说各个类别是由特定的混合组分组合而成, Ck 代表类别k具有的混合组分形成的集合,混合模型后验概率为:

p(cj=kxj)=i=1MiCkNαip(xjθi)i=1Nαip(xjθi)(3)

广义混合模型(The Generalized Mixture Model, GM):
每个混合组分i{ 1,,K}都有可能是形成某个类别k的一个混合成分,定义

p(cjmj,xj)=p(cjmj)=βcjmj(4)
,其中第二项成立是因为 βcjmj 与具体的 xj 取值无关。在此基础上可知,混合模型后验概率为:

p(cjxj)=i=1N(αip(xjθi))βcjii=1Nαip(xjθi)(5)

显然,令 GM中真正属于 cj 的混合成分 i 均为 βcji=1 ,其他 βcji=0 ,则此时广义混合模型退化为 PM

在这里,我们采用GM ,采用高斯分布作为混合成分,来推导EM算法的更新参数。
显然,此时:

f(xjθi)=p(xjθi)=p(xjμi,Σi)(*)

(1) 变为:
LL(DlDu)=(xi,cj)Dllni=1Nαip(cjxj,mj=i,μi,Σi)p(xjμi,Σi)+xiDulni=1
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值