
机器学习公式推导
文章平均质量分 70
新之
这个作者很懒,什么都没留下…
展开
-
机器学习公式推导-Γ函数的推导
推导出:Γ函数是阶乘在实数上的推广原创 2017-05-19 11:06:06 · 1309 阅读 · 0 评论 -
奇异值分解(SVD)原理详解及推导
转载请声明出处http://blog.youkuaiyun.com/zhongkejingwang/article/details/43053513 SVD不仅是一个数学问题,在工程应用中的很多地方都有它的身影,比如前面讲的PCA,掌握了SVD原理后再去看PCA那是相当简单的,在推荐系统方面,SVD更是名声大噪,将它应用于推荐系统的是Netflix大奖的获得者Koren,可以在Google上找到他转载 2017-05-31 16:01:48 · 748 阅读 · 1 评论 -
PCA算法原理与详细注解
http://blog.codinglabs.org/articles/pca-tutorial.html这篇博文非常详细的介绍了PCA算法的过程,但对数学基础较薄弱人来说,看的有些费劲。本篇博文从一个刚接触PCA算法小白的角度学习PCA算法,希望能帮助到你。整体认知:PCA算法就是一个降维算法,比如10维数据降到7维数据,2维数据降到1维数据。通过降维,方便数据计算。在图像上更有直观原创 2017-06-05 15:50:50 · 2225 阅读 · 0 评论 -
机器学习18-XGBoost的推导过程
一,对随机森林的重新思考 随机森林的每个决策树由随机样本数,随机样本特征,通过信息熵的度量来确定,可以说各个决策树之间是相互独立的,每个树只是在某个分类方向上具有优势(弱分类器),将具有优势的这些树组成森林,即可生成随机森林,从而达到分类的目的。但是如果我想对随机森林进一步提升准确率,应该采取什么策略呢?有以下2个方向: 1,决策树。 假定当前得到m-1颗决策树,可以根据原创 2017-06-19 16:29:52 · 1700 阅读 · 1 评论 -
深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件
在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Multiplier) 和KKT条件是非常重要的两个求取方法,对于等式约束的优化问题,可以应用拉格朗日乘子法去求取最优值;如果含有不等式约束,可以应用KKT条件去求取。当然,这两个方法求得的结果只是必要条件,只有当是凸函数的情况下,才能保证是充分必要条件。KKT条件是拉格朗日乘子法的泛化。之前学习的时候,只知道直接应用两个方法,但是却转载 2017-06-21 16:34:15 · 395 阅读 · 0 评论 -
机器学习19-SVM线性可分公式推导(一)
一 在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Multiplier) 和KKT条件是非常重要的两个求取方法,对于等式约束的优化问题,可以应用拉格朗日乘子法去求取最优值;如果含有不等式约束,可以应用KKT条件去求取。当然,这两个方法求得的结果只是必要条件,只有当是凸函数的情况下,才能保证是充分必要条件。KKT条件是拉格朗日乘子法的泛化。之前学习的时候,只知道直接应原创 2017-06-22 12:43:26 · 1629 阅读 · 0 评论 -
机器学习16-熵与随机森林
熵与随机森林一,熵熵是描述系统混乱的量,熵越大说明系统越混乱,携带的信息就越少,熵越小说明系统越有序,携带的信息越多。你要现确定系统,再来描述。你的例子,可以这样理解,同样大的硬盘,熵越大什么坏了的硬盘越多,他可以承载的信息越少,熵越小意味着坏掉的硬盘越少,可以承载的信息量越大。原创 2017-06-15 11:31:15 · 3193 阅读 · 0 评论