
ML
算法学习者
计算机各种知识学习笔记
展开
-
LDA主题聚类学习小结
最近学习了LDA Topic聚类算法,里面涉及到许多概率论的知识,需要回过头去学习,这里做个小结,方便记忆,同时也希望能把它讲明白。LDA模型算法简介: 算法 的输入是一个文档的集合D={d1, d2, d3, ... , dn},同时还需要聚类的类别数量m;然后会算法会将每一篇文档 di 在 所有Topic上的一个概率值p;这样每篇文档都会得到一个概率的集合di=(dp1,转载 2016-12-01 22:42:58 · 9976 阅读 · 0 评论 -
资源|28本必读的经典机器学习/数据挖掘书籍(免费下载)
全球人工智能机器学习/数据挖掘 Real World Machine Learning(现实世界中的机器学习) 作者:Henrik Brink,Joseph W.Richards和Mark Fetherolf 本书介绍了现实世界中机器学习的应用,旨在教会工作开发者ML项目执行的艺术。 书籍链接:https://www.manning.co转载 2017-04-20 11:33:29 · 11768 阅读 · 0 评论 -
支持向量机(SVM)、支持向量回归(SVR)
1、支持向量机( SVM )是一种比较好的实现了结构风险最小化思想的方法。它的机器学习策略是结构风险最小化原则 为了最小化期望风险,应同时最小化经验风险和置信范围)支持向量机方法的基本思想:( 1 )它是专门针对有限样本情况的学习机器,实现的是结构风险最小化:在对给定的数据逼近的精度与逼近函数的复杂性之间寻求折衷,以期获得最好的推广能力;( 2 )它最终解决的是一个凸二次规转载 2017-05-25 19:30:25 · 5261 阅读 · 0 评论 -
隐马尔科夫模型-基本模型与三个基本问题
隐马尔科夫模型-基本模型与三个基本问题这次学习会讲了隐马尔科夫链,这是一个特别常见的模型,在自然语言处理中的应用也非常多。常见的应用比如分词,词性标注,命名实体识别等问题序列标注问题均可使用隐马尔科夫模型.下面,我根据自己的理解举例进行讲解一下HMM的基本模型以及三个基本问题,希望对大家理解有帮助~1隐马尔科夫模型定义隐马尔可夫模型是关于时序的概率模转载 2017-05-25 23:13:09 · 3826 阅读 · 0 评论 -
Beam Search(集束搜索/束搜索)
Beam Search(集束搜索/束搜索)找遍百度也没有找到关于Beam Search的详细解释,只有一些比较泛泛的讲解,于是有了这篇博文。首先给出wiki地址:http://en.wikipedia.org/wiki/Beam_search1.简介Beam Search(集束搜索)是一种启发式图搜索算法,通常用在图的解空间比较大的情况下,为了减少搜索所占用的空间和转载 2017-06-13 16:53:15 · 5376 阅读 · 0 评论 -
20 个顶尖的 Python 机器学习开源项目
1. Scikit-learnwww.github.com/scikit-learn/scikit-learnScikit-learn 是基于Scipy为机器学习建造的的一个Python模块,他的特色就是多样化的分类,回归和聚类的算法包括支持向量机,逻辑回归,朴素贝叶斯分类器,随机森林,Gradient Boosting,聚类算法和DBSCAN。而且也设计出了Python nu转载 2017-09-30 16:42:44 · 784 阅读 · 0 评论 -
An introduction to machine learning with scikit-learn
http://scikit-learn.org/stable/tutorial/basic/tutorial.htmlAn introduction to machine learning with scikit-learnSection contentsIn this section, we introduce the machine learning vocab转载 2017-09-30 16:53:12 · 696 阅读 · 0 评论 -
28款GitHub最流行的开源机器学习项目
现在机器学习逐渐成为行业热门,经过二十几年的发展,机器学习目前也有了十分广泛的应用,如:数据挖掘、计算机视觉、自然语言处理、生物特征识别、搜索引擎、医学诊断、DNA序列测序、语音和手写识别、战略游戏和机器人等方面。翻译整理了目前GitHub上最受欢迎的28款开源的机器学习项目,以供开发者参考使用。1. TensorFlow TensorFlow 是谷歌发布的转载 2017-11-13 11:44:09 · 940 阅读 · 0 评论 -
GBDT算法原理深入解析
梯度提升(Gradient boosting)是一种用于回归、分类和排序任务的机器学习技术,属于Boosting算法族的一部分。Boosting是一族可将弱学习器提升为强学习器的算法,属于集成学习(ensemble learning)的范畴。Boosting方法基于这样一种思想:对于一个复杂任务来说,将多个专家的判断进行适当的综合所得出的判断,要比其中任何一个专家单独的判断要好。通俗地说,就是“三转载 2017-11-29 09:38:19 · 1083 阅读 · 0 评论 -
Logistic回归原理及公式推导
原文见 http://blog.youkuaiyun.com/acdreamers/article/details/27365941Logistic回归为概率型非线性回归模型,是研究二分类观察结果与一些影响因素之间关系的一种多变量分析方法。通常的问题是,研究某些因素条件下某个结果是否发生,比如医学中根据病人的一些症状来判断它是否患有某种病。 在讲解Logisti转载 2017-04-19 17:56:15 · 19767 阅读 · 4 评论 -
机器学习 Python 库 Top 20
如今开源是创新的核心,推动着技术的飞速革新。本文会为你介绍 2016 年机器学习 Top 20 Python 开源项目,同时分析得出一些有趣的见解和发展趋势。 KDnuggets 为您带来 Github 上最新的 Python 机器学习开源项目前 20 名。奇怪的是,去年一些非常活跃的项目渐渐停滞了,因此没能上榜,而 13 个新项目冲进了今年的 top 20(参考贡献 contrib转载 2017-04-06 00:42:02 · 6657 阅读 · 0 评论 -
关于SVM一篇比较全介绍的博文
最新人工智能论文:http://paperreading.club转自:http://blog.youkuaiyun.com/v_july_v/article/details/7624837前言 动笔写这个支持向量机(support vector machine)是费了不少劲和困难的,原因很简单,一者这个东西本身就并不好懂,要深入学习和研究下去需花费不少时间和精力,二者这个东西也不好讲清楚...转载 2016-12-16 17:50:54 · 33848 阅读 · 4 评论 -
Fuzzy c-means (FCM)聚类算法
原理 允许同一数据属于多个不同的类。该算法(developed by Dunn in 1973 and improved by Bezdek in 1981)经常用于模式识别,基于最小化下列目标函数: , 其中, m 是大于1的实数,uij 是xi 属于类别 j隶属度, xi 第i个测量到的d维数据, cj 是类j的聚类中心,||*|| 表示任一测量数据与转载 2016-12-26 22:20:20 · 10125 阅读 · 0 评论 -
机器学习常用算法
线性模型决策树神经网络支持向量机贝叶斯分类器集成学习聚类降维与度量学习特征选择与稀疏学习计算学习理论半监督学习概率图模型规则学习强化学习原创 2016-12-26 23:58:08 · 6887 阅读 · 0 评论 -
性能度量
错误率与精度查准率、查全率与F1ROC与AUC代价敏感错误率与代价曲线比较检验假设检验交叉验证t检验McNemar检验Friedman检验与Nemenyi后续检验偏差与方差原创 2016-12-27 20:43:49 · 6435 阅读 · 0 评论 -
基本Kmeans算法介绍及其实现
1.基本Kmeans算法[1][cpp] view plain copy选择K个点作为初始质心 repeat 将每个点指派到最近的质心,形成K个簇 重新计算每个簇的质心 until 簇不发生变化或达到最大迭代次数 时间复杂度:O(tKmn),其中,t为迭代次数,K为簇的数目,m为记录数,n为维数转载 2016-12-21 00:48:41 · 6705 阅读 · 0 评论 -
机器学习十大算法
一、有监督学习算法一:决策树算法二:朴素贝叶斯分类器算法三:最小二乘法算法四:逻辑回归算法五:支持向量机算法六:集成学习二、无监督学习算法七:聚类算法算法八:主成分分析算法九:SVD矩阵分解算法十:独立成分分析原创 2017-02-05 23:58:06 · 8031 阅读 · 2 评论 -
聊聊主成分分析
本文聊聊主成分分析(principal component analysis, PCA),首先谈谈协方差。方差和协方差是用来衡量一系列点在它们的重心或均值周围的分散程度的。方差可以标度这些点在一个维度的偏差, 而协方差是用来衡量一个维度是否会对另外一个维度有所影响的。协方差对两个维度进行衡量,进而查看这两个维度之间是否有关系。显然,某个维度跟自身之间的协方差就是方差。转载 2017-03-22 01:15:36 · 6893 阅读 · 0 评论 -
一文搞懂k近邻(k-NN)算法(一)
原文链接一文搞懂k近邻(k-NN)算法(一)前几天和德川一起在学习会上讲解了k-NN算法,这里进行总结一下,力争用最通俗的语言讲解以便更多同学的理解。本文目录如下:1.k近邻算法的基本概念,原理以及应用2.k近邻算法中k的选取,距离的度量以及特征归一化的必要性3.k近邻法的实现:kd树原理的讲解4.kd树详细例转载 2017-03-25 22:06:35 · 12889 阅读 · 4 评论 -
Precision-Recall
Example of Precision-Recall metric to evaluate classifier output quality.Precision-Recall is a useful measure of success of prediction when the classes are very imbalanced. In information retrieva转载 2017-11-21 23:18:03 · 3729 阅读 · 0 评论