
机器学习
Joe-Han
这个作者很懒,什么都没留下…
展开
-
混合高斯模型
1. 单高斯模型(SGM)多维高斯分布的概率密度函数如下式所示:N(x|μ,Σ)=12π|Σ|√e−12(x−μ)⊤Σ−1(x−μ)N(x|\mu,\Sigma )=\frac{1}{\sqrt{2\pi |\Sigma |}}e^{-\frac{1}{2}(x-\mu)^{\top }\Sigma^{-1} (x-\mu)}对于单高斯模型,由于可以明确训练样本是否属于该高斯模型,因此 μ\mu原创 2017-03-23 09:11:46 · 17307 阅读 · 6 评论 -
强化学习笔记(1):Q-Learning
考虑下面这个例子:假如我们想让一只老鼠学会走迷宫,往往会在迷宫的几个关键地点放上奶酪,老鼠每次走到关键点就会获得奖励,久而久之,老鼠就能学会快速找到迷宫出口,这就是强化学习的一个例子。 强化学习的关键要素包括:环境(environment),回报(reward),动作(action ),状态(state) 。在上述例子中,environment就是老鼠所处的迷宫,迷宫中的奶酪代表reward...原创 2018-05-30 19:01:24 · 4508 阅读 · 0 评论 -
生成式对抗网络(Generative Adversarial Networks,GANs)
1. 简介首先简要介绍一下生成模型(Generative model)与判别模型(Discriminative mode)的概念:生成模型:对联合概率进行建模,从统计的角度表示数据的分布情况,刻画数据是如何生成的,收敛速度快,例如朴素贝叶斯,GDA,HMM等。判别模型:对条件概率P(Y|X)P(Y|X)进行建模,不关心数据如何生成,主要是寻找不同类别之间的最优分类面,例如LR,SVM等原创 2018-01-04 15:40:00 · 57238 阅读 · 4 评论 -
Aggregation总结:Blending和Bootstrap
1. Aggregation 首先举一个买房的例子,假如你有10个朋友给出了买房的意见,你如何参考这10个人的意见做出决定呢?第一种办法是让大家投票,每人一票,最后选择得票数最多的那个选项第二种办法也是投票,与第一种不同的是每个人手里的票数不一样,懂行的人可能会分配更多的票数第三种办法是根据具体条件进行判断:这10个人中,有的人可能注重房源的地理位置,有的人可能更注重交通状况。根据不原创 2016-11-01 09:22:58 · 3821 阅读 · 0 评论 -
决策树(ID3、C4.5、CART)
1. 基本概念所谓决策树,顾名思义,就是一种树,一种依托于策略抉择而建立起来的树。在机器学习中,决策树是一种预测模型,代表的是一种对象特征属性与对象目标值之间的一种映射关系。决策树仅有单一输出,如果有多个输出,可以分别建立独立的决策树以处理不同的输出。,下图给出了决策树的一个简单例子: 决策树分为分类树和回归树两种,分类树对离散变量做决策,输出是样本的预测类别;回归树对连续变量做决策,输原创 2016-11-20 15:41:19 · 24073 阅读 · 3 评论 -
循环神经网络与LSTM
1. 循环神经网络①基本结构在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNN(Recurrent Neuron Network)是一种对序列数据建模的神经网络,即一个序列当前的输出与前原创 2017-02-21 17:46:07 · 56953 阅读 · 12 评论 -
随机森林与GBDT
1. 随机森林1.1 决策树决策树分为两大类,分类树和回归树。分类树是我们比较熟悉的决策树,比如C4.5分类决策树。分类树用于分类标签值,如晴天/阴天、用户性别、网页是否是垃圾页面。而回归树用于预测实数值,如明天的温度、用户的年龄、网页的相关程度。也就是分类树的输出是定性的,而回归树的输出是定量的。分类树以C4.5算法为例,C4.5分类树在每次分枝时,是穷举每一个feature的原创 2017-04-06 22:03:46 · 19624 阅读 · 3 评论 -
数据预处理与特征选择
数据预处理和特征选择是数据挖掘与机器学习中关注的重要问题,坊间常说:数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已。特征工程就是将原始数据转化为有用的特征,更好的表示预测模型处理的实际问题,提升对于未知数据的预测准确性。下图给出了特征工程包含的内容: 本文数据预处理与特征选择的代码均采用sklearn所提供的方法,并使用sklearn中的IRIS(鸢尾花)数据集来对特征原创 2017-04-12 15:09:24 · 37982 阅读 · 2 评论 -
优化方法总结:SGD,Momentum,AdaGrad,RMSProp,Adam
1. SGDBatch Gradient Descent在每一轮的训练过程中,Batch Gradient Descent算法用整个训练集的数据计算cost fuction的梯度,并用该梯度对模型参数进行更新:Θ=Θ−α⋅▽ΘJ(Θ)\Theta = \Theta -\alpha \cdot \triangledown_\Theta J(\Theta )优点:cost fuction若为凸函数,能原创 2017-08-06 10:55:40 · 116458 阅读 · 23 评论 -
隐马尔可夫模型(HMM)
1. 背景知识1.1随机过程随机过程是随机变量的集合,其在随机变量的基础上引入时间的概念(可简单理解为随机变量关于时间的函数)。例如,x1(t),x2(t),x3(t),x4(t)x_1(t),x_2(t),x_3(t),x_4(t) 都是时间的函数,我们将其称为样本函数,样本函数的集合便是一个随即过程。其定义如下:设:(Ω,F,P)(Ω, F , P )为一概率空间,集合TT 为一指标集合。如果对原创 2017-06-01 15:08:40 · 12177 阅读 · 0 评论 -
Adaptive Boosting(AdaBoost)
1. Motivationbootstrap在训练集上通过有放回的采样构造出不同的训练数据,该过程可以看作在完整训练集上,为每一个样本赋予不同的权重。若该样本在本次抽样中没有被选中,则其权重为0。在采样得到的每一个数据集 u(t)nu_{n}^{(t)} 上训练得到模型 gtg_{t} 。为了增加不同 gtg_{t} 之间的差异性,可采用如下思路:经过训练得到的模型 gtg_{t} 在数据集 u原创 2016-11-09 15:19:11 · 3503 阅读 · 0 评论 -
强化学习笔记(2):Sarsa 与 Sarsa(lambda)
上篇文章中介绍了Q-Learning算法, 而Sarsa 和 Q-Learning是非常类似的。在决策环节,二者是一样的, 都是基于Q 表,挑选值较大的动作值施加在环境中来换取回报. 但是不同的地方在于 Sarsa 的更新方式是不一样的。 ...原创 2018-05-31 13:24:30 · 13613 阅读 · 5 评论