葫芦书笔记----概率图模型

本文深入探讨了概率图模型,包括贝叶斯网络和马尔可夫网络的联合概率分布,并对比了生成式模型与判别式模型的区别。此外,还讨论了最大熵马尔可夫模型中的标注偏置问题及其解决方案,以及主题模型如pLSA和LDA的应用。

概率图模型

概率图模型的联合概率分布

能否写出图中贝叶斯网络的联合概率分布?

可见,在给定A的条件下B和C是条件独立的,基于条件概率的定义可得
P(C∣A,B)=P(B,C∣A)P(B∣A)=P(B∣A)P(C∣A)P(B∣A) P(C|A,B)=\frac{P(B,C|A)}{P(B|A)}=\frac{P(B|A)P(C|A)}{P(B|A)} P(CA,B)=P(BA)P(B,CA)=P(BA)P(BA)P(CA)
同理,在给定B和C的条件下A和D是条件独立的,可得
P(D∣A,B,C)=P(A,D∣B,C)P(A∣B,C)=P(A∣B,C)P(D∣B,C)P(A∣B,C) P(D|A,B,C)=\frac{P(A,D|B,C)}{P(A|B,C)}=\frac{P(A|B,C)P(D|B,C)}{P(A|B,C)} P(DA,B,C)=P(AB,C)P(A,DB,C)=P(AB,C)P(AB,C)P(DB,C)
由式1,2可得联合概率
P(A,B,C,D)=P(A)P(B∣A)P(C∣A,B)P(D∣A,B,C)=P(A)P(B∣A)P(C∣A)P(D∣B,C) P(A,B,C,D)=P(A)P(B|A)P(C|A,B)P(D|A,B,C)=P(A)P(B|A)P(C|A)P(D|B,C) P(A,B,C,D)=P(A)P(BA)P(CA,B)P(DA,B,C)=P(A)P(BA)P(CA)P(DB,C)

###能否写出图中马尔可夫网络的联合概率分布

在马尔可夫网络中,联合概率分布的定义为
P(x)=1Z∏Q∈CφQ(xQ) P(x)=\frac{1}{Z}\prod_{Q\in C}\varphi_Q(x_Q) P(x)=Z1QCφQ(xQ)
具体的看书。

概率图表示

看书

生成式模型与判别式模型

###生成式模型与判别式模型的区别是什么?

速记:假设可观测到的变量集合为X,余姚预测的变量集合为Y,其他的变量集合为Z。

生成式模型:对联合概率分布P(X,Y,Z)进行建模,在给定观测集合X的条件下,通过计算边缘分布来得到对变量集合Y的推断,即
P(Y∣X)=P(X,Y)P(X)=∑ZP(X,Y,Z)∑Y,ZP(X,Y,Z) P(Y|X)=\frac{P(X,Y)}{P(X)}=\frac{\sum_ZP(X,Y,Z)}{\sum_{Y,Z}P(X,Y,Z)} P(YX)=P(X)P(X,Y)=Y,ZP(X,Y,Z)ZP(X,Y,Z)
判别式模型:直接对条件概率分布P(Y,Z|X)进行建模,然后消掉无关变量Z就可以得到对遍历集合Y的预测,即
P(Y∣X)=∑ZP(Y,Z∣X) P(Y|X)=\sum_ZP(Y,Z|X) P(YX)=ZP(Y,ZX)

常见的概率图模型中,哪些是生成式模型,哪些是判别式模型?

速记:生成式模型:朴素贝叶斯、贝叶斯网络、pLSA、LDA等。判别式模型:最大熵模型、隐马尔可夫模型、条件随机场。

马尔可夫模型

###最大熵马尔可夫模型为什么会产生标注偏置问题?如何解决?

速记:原因:局部归一化的影响。解决:条件随机场

详细:由于局部归一化的影响,隐状态会倾向于转移到安歇后续状态可能更少的状态上,以提高整体的后验概率。这就是标注偏置问题。条件随机场在最大熵马尔可夫模型的基础上,进行了全局归一化,从而解决了局部归一化带来的标注偏置问题。

主题模型

###常见的主题模型有哪些?介绍其原理

速记:pLSA是用一个生成模型来建模文章的生成过程。LDA可以看作pLSA的贝叶斯版本。

详细:看书。

如何确定LDA模型的主题个数?

速记:利用验证集对超参数进行选择,常用的评估指标是困惑度。

详细:在文档集合D中,模型的困惑度被定义为
perplexity(D)=exp−∑d=1Mlog⁡p(wd)∑d=1MNd perplexity(D)=exp{-\frac{\sum_{d=1}^M\log p(w_d)}{\sum_{d=1}^MN_d}} perplexity(D)=expd=1MNdd=1Mlogp(wd)
其中M为文档总数,wdw_dwd为文档d中单词所组成的词袋向量,p(wd)p(w_d)p(wd)为模型所预测的文档d的生成概率,NDN_DND为文档d中单词的总数。

可以取验证集的困惑度极小值点对应的主题个数作为超参数。

如何用主题模型解决推荐系统中的冷启动问题?

冷启动问题:指在没有大量用户数据的情况下如何给用户进行个性化推荐,目的是最优化点击率、转化率或用户体验。

冷启动一般分为用户冷启动、物品冷启动和系统冷启动三大类。

没有难度,实际内容,几乎不存在理解,详细看书。

Statistical learning refers to a set of tools for modeling and understanding complex datasets. It is a recently developed area in statistics and blends with parallel developments in computer science and, in particular, machine learning. The field encompasses many methods such as the lasso and sparse regression, classification and regression trees, and boosting and support vector machines. With the explosion of “Big Data” problems, statistical learning has be- come a very hot field in many scientific areas as well as marketing, finance, and other business disciplines. People with statistical learning skills are in high demand. One of the first books in this area—The Elements of Statistical Learning (ESL) (Hastie, Tibshirani, and Friedman)—was published in 2001, with a second edition in 2009. ESL has become a popular text not only in statis- tics but also in related fields. One of the reasons for ESL’s popularity is its relatively accessible style. But ESL is intended for individuals with ad- vanced training in the mathematical sciences. An Introduction to Statistical Learning (ISL) arose from the perceived need for a broader and less tech- nical treatment of these topics. In this new book, we cover many of the same topics as ESL, but we concentrate more on the applications of the methods and less on the mathematical details. We have created labs illus- trating how to implement each of the statistical learning methods using the popular statistical software package R . These labs provide the reader with valuable hands-on experience.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值