Graphical Models
文章平均质量分 72
GrazyThinking
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
概率图模型(PGM)学习笔记(二)贝叶斯网络-语义学与因子分解
概率分布(Distributions) 如图1所示,这是最简单的联合分布案例,姑且称之为学生模型。 图1 其中包含3个变量,分别是:I(学生智力,有0和1两个状态)、D(试卷难度,有0和1两个状态)、G(成绩等级,有1、2、3三个状态)。 表中就是概率的联合分布了,表中随便去掉所有包含某个值的行,就能对分布表进行缩减。 例如可以去掉所有G不为1转载 2014-11-04 13:24:46 · 1828 阅读 · 0 评论 -
概率图模型(PGM)学习笔记(四)-贝叶斯网络-伯努利贝叶斯-多项式贝叶斯
之前忘记强调了一个重要区别:条件概率链式法则和贝叶斯网络链式法则的区别 条件概率链式法则 贝叶斯网络链式法则,如图1 图1 乍一看很容易觉得贝叶斯网络链式法则不就是大家以前学的链式法则么,其实不然,后面详述。 上一讲谈到了概率分布的因式分解 可以看到条件概率的独立性可以直接转载 2014-11-04 13:26:59 · 1492 阅读 · 0 评论 -
概率图模型(PGM)学习笔记(一)动机与概述
本文根据Daphne Koller的课程整理。 PDM(ProbabilisticGraphiccal Models) 称为概率图模型。下面分别说明3个词对应的意义。 概率 -给出了不确定性的明确量度。 -给出了根据不确定性进行推断的有力工具。 -利用数据结构,建立了进行学习的方法,解决十分大规模的问题。 图 这里主要转载 2014-11-04 13:23:53 · 1282 阅读 · 0 评论 -
概率图模型(PGM)学习笔记(三)模式推断与概率图流
我们依然使用“学生网络”作为例子,如图1。 图1 首先给出因果推断(Causal Reasoning)的直觉解释。 可以算出来 即学生获得好的推荐信的概率大约是0.5. 但如果我们知道了学生的智商比较低,那么拿到好推荐信的概率就下降了: 进一步,如果又同时知道了考试的难度很低,那么他拿到好的推荐信得概率又上升了,甚至转载 2014-11-04 13:26:11 · 1155 阅读 · 0 评论 -
概率图模型(PGM)学习笔记(五)——模板模型
模板模型(Template Models)主要包括模板变量(TemplateVariables)和语言(Language)。 模板模型可以应用于无限大的贝叶斯网络; 模板变量是被多次复用的变量: 如:地点(时间)、基因型(人物)、标签(像素)、难度(课程),等等。 语言用来描述模板变量如何从模板中继承依赖关系。 语言有很多种,各转载 2014-11-04 13:29:12 · 1203 阅读 · 0 评论
分享