自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 机器学习笔记(五)--贝叶斯统计

简介我之前已经讨论过如果来通过MAP来估计θ\theta,这里接下来将会有全贝叶斯后验的计算。 贝叶斯统计的核心就是通过后验统计来来总结关于我们不知道的变量的一切知识。在第6章会有通过经典统计学来做的内容。后验分布的总结后验分布p(θ|D)p(\theta|D)告诉总结了我们对于未知数θ\theta所知道的内容。这章我们会讨论如何从概率分布中进行推测一些简单的未知数。这种总结性的统计相对于全联合统

2015-11-04 18:17:53 2396 1

原创 机器学习读书笔记(三) 离散数据的生成模型

概述我们之前讨论过生成模型的特征,根据贝叶斯公式我们通过计算p(x|y=c,θ)p(y=c|θ)p(x|y=c,\theta)p(y=c|\theta)来估计p(p=c|x,θ)p(p=c|x,\theta),使用这个模型的关键是我们需要找到一个合适的类条件密度p(x|y=c,θ)p(y=c|θ)p(x|y=c,\theta)p(y=c|\theta),这一章的前提假设是样本都是离散数据。贝叶斯概念

2015-10-27 17:19:53 1772

原创 机器学习笔记(二)概率相关

概率只是一种削减计算量的常识———拉普拉斯离散分布对于离散分布的内容主要需要记住假设有一个离散集XX,xix_i代表其中的某一离散值,而p(xi)p(x_i)就代表离散集中取xix_i的概率,其中有0≤p(xi)≤10\leq p(x_i)\leq 1并且有∑xi∈Xp(xi)=1\sum_{x_i\in X}p(x_i) =1基本规则两个事件的并集概率p(A∨B)=p(A

2015-10-22 22:57:05 536

原创 机器学习读书笔记(一) 概述

关于机器学习的what和why我们生在了一个大数据的时代,迫使我们陷入了信息之中,并在信息之中寻求知识。机器学习所能提供的了很多方法,这些方法通过自行的在信息之中分析并找到知识。1.机器学习的分类1.1监督性学习 也就是在学习之初,我们已经对于需要学习的内容有分类,或者知道其结果,然后通过对已知样本的结果进行学习,来对新的样本进行预测或分类,也就是建立输入x和输出y之间的关系。以下列出了监督性学习的

2015-10-22 01:34:45 846

原创 【1012】畅通工程

这个问题有两个解法,其实是我在面试百度的三面题目当时用的是并查集的思想。但是没有用并查集做,而是直接合并了。所以导致算法时间复杂度上升,如果三面跪了应该就是跪在这题上面了。另外一个方法是把他看做求最大联通子图的问题,用遍历的方法就可以解决。以下列出并查集的算法。import java.io.BufferedInputStream;import java.util.HashSet

2015-10-21 10:52:20 423

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除