LDA

本文深入解析了LDA(Latent Dirichlet Allocation)模型的工作原理,包括其如何通过狄里克雷分布为文档主题和单词分配概率。文章还介绍了如何通过变分推断和MCMC方法来实现LDA模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

自己写一下lda,并实践。

看完变分,在回顾看下mcmc的视频


这里写图片描述

每个主题的模型
对于主题ϕ来说ϕ={ϕ1,ϕ2,...,ϕK},对应每个单词的概率。类似于筛子每个面朝上的概率。
狄里克雷分布是多项分布参数的分布,ϕ是服从狄里克雷分布。
p(ϕ|β)=Γ(Kk=1βk)Kk=1Γ(βk)Kk=1ϕβk1k
归一化部分就是:和的伽马除以伽马的积。乘以,贝塔与对应fai减一的指数。

每个文档的主题模型
每个文档由多个主题组成:
θ={θ1,θ2,...,θM},对应文档中M个主题的概率分布。
同样的,这个主题分布也是服从狄里克雷分布的,也就是θ1,θ2时如何得到的,它们的值是什么,由狄里克雷分布给出它们的概率。
p(θ|α)=Γ(Mm=1αm)Mm=1Γ(αm)Mm=1θαm1m

每个单词的主体模型
每个文字到底属于哪个主题,也就是每产生一个单词之前,先要确定从哪个主题里面采样。也就是从θ中产生隐变量Z,表示单词对应的主题。
p(Z|θ)=θk,Zk
多项式分布:
p(n1,n2,...,nk)=n!ki=1pniini!n1+n2+...+nk=n
多项式分布掷n次骰子,上面的采样是掷一次骰子。我们也叫作Z服从多项式分布。

每个单词的采样模型
隐变量Z确定了单词w从中采样的主题ϕ
同样从主题ϕ采样得到单词w也是服从多项式分布,掷一次骰子的结果。
p(w|ϕ)=ϕk,wϕk

::
::
参数设置成一个分布而不是固定的值,会容错性好点。
LDA=Latent Dirichlet Allocation。应该是指,参数的潜在分布是服从狄里克雷分布。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值