
机器学习
文章平均质量分 80
baiyangfu
富贵有定数,学问则无定数。求一分,便得一分。一个大牛说的,共勉
展开
-
vc维
转于:http://blog.youkuaiyun.com/carson2005/article/details/6453098为了研究函数集在经验风险最小化原则下的学习一致性问题和一致性收敛的速度,统计学习理论定义了一系列有关函数集学习性能的指标,它们包括:随机熵、VC熵、退火的VC熵、生长函数、VC维等。尽管随机熵、VC熵、退火的VC熵、生长函数等在统计学习理论的发展过程中起到了一定的作用,但由于转载 2014-10-10 17:53:23 · 1474 阅读 · 0 评论 -
贝叶斯学习,spark mlib 朴素贝叶斯使用
贝叶斯算法属于监督类机器学习算法,他的原理很简单,但是他的用处很原创 2014-11-11 18:49:21 · 5094 阅读 · 2 评论 -
感知机学习算法——统计学习方法笔记,代码实现
看了李航博士的《统计学习算法》,做一个笔记,原创 2014-11-17 18:14:28 · 1664 阅读 · 0 评论 -
SVM-支持向量机算法概述
(一)SVM的背景简介支持向量机(Support Vector Machine)是Cortes和Vapnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中[10]。支持向量机方法是建立在统计学习理论的VC 维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度,Accu转载 2014-11-13 11:06:56 · 1130 阅读 · 0 评论 -
深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件
在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Multiplier) 和KKT条件是非常重要的两个求取方法,对于等式约束的优化问题,可以应用拉格朗日乘子法去求取最优值;如果含有不等式约束,可以应用KKT条件去求取。当然,这两个方法求得的结果只是必要条件,只有当是凸函数的情况下,才能保证是充分必要条件。KKT条件是拉格朗日乘子法的泛化。之前学习的时候,只知道直接应用两个方法,但是却转载 2014-11-20 18:29:02 · 1611 阅读 · 0 评论