
机器学习
kdzc
中科院程序员一枚,研究僧在读中,主要方向压缩感知,图像处理,和大家一起学习进步^_^
展开
-
机器学习笔记- 贝叶斯学习(2)
Brute-Force MAP 学习算法: 此算法需要较大的计算量,因为它对 H中每个假设都应用了贝叶斯公式以计算 P(h|D)。 虽然对于大的假设空间这很不切实际,但该算法仍然值得关注,因为它提供了一个标准,以判断其他概念学习算法的性能。 1. 对于 H中每个假设 h,计算后验概率: 2 . 输出有最高后验概率的假设:原创 2015-03-27 15:38:25 · 1396 阅读 · 0 评论 -
机器学习笔记- 贝叶斯学习(1)
贝叶斯学习:待考查的量遵循某概率分布,且可根据这些概率及已观察到的数据进行推理,以作出最优的决策。 贝叶斯与其他算法不同的是,贝叶斯学习算法能够计算显式的假设概率,从而也为使用者的选择提供了数据支持。贝叶斯学习方法的特性包括:• 观察到的每个训练样例可以增量式地降低或升高某假设的估计概率。这提供了一种比其他算法更合理的学习途径。其他算法会在某个假设与任一样例不一致时原创 2015-03-26 14:29:39 · 818 阅读 · 0 评论 -
机器学习笔记-贝叶斯学习(4)
贝叶斯最优分类器前面我们一直在讨论“给定训练数据,最可能的假设是什么?”,通过计算极大似然假设我们可以选择最大的一项假设;而实际上,该问题通常与另一更有意义的问题紧密相关:“给定训练数据,对新实例的最可能分类是什么?”接下来,我们来看如何解决这个问题。为了更直观些,考虑一包含三个假设h1,h2,h3h_1, h_2, h_3的假设空间。假定已知训练数据时三个假设的后验概率分别为 0.4, 0.3,原创 2015-03-31 16:42:35 · 3948 阅读 · 0 评论 -
机器学习笔记 - 贝叶斯学习(5)
贝叶斯置信网如前两节所讨论的,朴素贝叶斯分类器假定了属性a1,a2...ana_1,a_2...a_n的值在给定目标值vv下是条件 独立的。这一假定显著地减小了目标函数学习的计算复杂度。 当此条件成立时,朴素贝叶斯分类器可得到最优贝叶斯分类。然而在许多情形下,这一条件独立假定明显过于严格了。在大多数情况下,属性之间会有一些联系,例如在(4)中最后例子中的属性outloock=sunnyoutlooc原创 2015-04-01 15:47:03 · 1829 阅读 · 0 评论 -
机器学习笔记- 贝叶斯学习(3)
得到目标概率的极大似然假设原创 2015-03-29 14:37:08 · 796 阅读 · 0 评论 -
人脸识别算法-特征脸方法(Eigenface)及python实现
这几天无聊,正好想起来以前谁说有同学做人脸识别,感觉好高大上,所以找来一些基础的人脸识别算法来自己实现一下,正好锻炼一下numpy的使用。特征脸方法基本是将人脸识别推向真正可用的第一种方法,了解一下还是很有必要的。特征脸用到的理论基础PCA我在这里就不说了,百度一大堆,主要讲一下实现步骤和自己在用python实现是发现的问题。这里我所使用的训练图片是YALE的人脸数据库点击打开链接,这里面有1原创 2015-06-08 20:15:20 · 38040 阅读 · 25 评论