
模式识别与机器学习
lamedaZzz
天高任鸟飞
展开
-
用于精准判断的贝叶斯定理
说起贝叶斯定理,不得不说条件概率,所谓“条件概率”(Conditional probability),指在事件B发生的情况下,事件A发生的概率,用P(A|B)来表示。条件概率计算公式为P(A|B) = P(AB)/P(B)。 条件概率公式是一个定义公式,或者说是公理化的,不好证明和推导。只能通过逻辑来理解了,AB都发生的概率可以理解成B发生的概率乘以B发生的情况下A发生的概率,也即P转载 2017-09-25 10:47:20 · 474 阅读 · 0 评论 -
支持向量机通俗导论(理解SVM的三层境界)
支持向量机通俗导论(理解SVM的三层境界) 作者:July 。致谢:pluskid、白石、JerryLead。 说明:本文最初写于2012年6月,而后不断反反复复修改&优化,修改次数达上百次,最后修改于2016年11月。 声明:本文于2012年便早已附上所有参考链接,并注明是篇“学习笔记”,且写明具体参考了pluskid等人的文章。文末转载 2017-09-25 11:44:45 · 320 阅读 · 0 评论 -
《机器学习实战》学习笔记:利用Adaboost元算法提高分类性能
一. 关于boosting算法的起源 boost 算法系列的起源来自于PAC Learnability(直译过来称为:PAC 可学习性)。这套理论主要研究的是什么时候一个问题是可被学习的。 我们知道,可计算性在计算理论中已经有定义,而可学习性正是PAC Learnability理论所要定义的内容。另外,在计算理论中还有很大一部分精力花在研究问题是可计算的时候,其复杂度又是什么样的。因此转载 2017-09-25 22:05:40 · 420 阅读 · 0 评论 -
最大似然估计 (MLE)与 最大后验概率(MAP)在机器学习中的应用
最大似然估计 MLE 给定一堆数据,假如我们知道它是从某一种分布中随机取出来的,可是我们并不知道这个分布具体的参,即“模型已定,参数未知”。 例如,对于线性回归,我们假定样本是服从正态分布,但是不知道均值和方差;或者对于逻辑回归,我们假定样本是服从二项分布,但是不知道均值,逻辑回归公式得到的是因变量y的概率P = g(x), x为自变量,通过逻辑函数得到一个概率值,y对应离散值为0或者转载 2017-11-05 20:30:58 · 2041 阅读 · 0 评论 -
主流机器学习模型模板代码+经验分享[xgb, lgb, Keras, LR]
刷比赛利器,感谢分享的人。 摘要 最近打各种比赛,在这里分享一些General Model,稍微改改就能用的 环境: python 3.5.2 XGBoost调参大全: http://blog.youkuaiyun.com/han_xiaoyang/article/details/52665396 XGBoost 官方API: http://xgboost.readthedocs.io...转载 2018-10-22 18:41:10 · 821 阅读 · 0 评论