潜在狄利克雷分配(LDA)的吉布斯采样算法
1. 引言
潜在狄利克雷分配(LDA)的学习(参数估计)是一个复杂的优化问题,难以精确求解,通常只能进行近似求解。常用的近似求解方法有吉布斯采样和变分推断。本文将重点介绍吉布斯采样方法,它的优点是实现简单,但缺点是迭代次数可能较多。
2. LDA模型的概率分布
2.1 第m篇文本的联合概率分布
第m篇文本的联合概率分布可以表示为:
[p(\mathbf{w} m, \mathbf{z}_m, \theta_m, \phi | \alpha, \beta) = \prod {k = 1}^{K} p(\phi_k | \beta) p(\theta_m | \alpha) \prod_{n = 1}^{N_m} p(z_{mn} | \theta_m) p(w_{mn} | z_{mn}, \phi)]
其中,(\mathbf{w}_m) 表示文本中的单词序列,(\mathbf{z}_m) 表示文本中的主题序列,(\theta_m) 表示文本的主题分布参数。
LDA模型的联合分布包含隐藏变量,通过对隐藏变量进行积分可以得到边缘分布。
给定参数 (\theta_m) 和 (\phi) 时,生成第m篇文本的概率为:
[p(\mathbf{w} m | \theta_m, \phi) = \prod {n = 1}^{N_m} \left[ \sum_{k = 1}^{K} p(z_{mn} = k | \theta_m) p(w_{mn} | \phi_k) \right]]
给定超
超级会员免费看
订阅专栏 解锁全文
3603

被折叠的 条评论
为什么被折叠?



