
机器学习算法
hrbeuwhw
这个作者很懒,什么都没留下…
展开
-
最大似然估计
最近在看深度学习的"花书" (也就是Ian Goodfellow那本了),第五章机器学习基础部分的解释很精华,对比PRML少了很多复杂的推理,比较适合闲暇的时候翻开看看。今天准备写一写很多童鞋们w未必完全理解的最大似然估计的部分。单纯从原理上来说,最大似然估计并不是一个非常难以理解的东西。最大似然估计不过就是评估模型好坏的方式,它是很多种不同评估方式中的一种。未来准备写一写最大似然估计与它转载 2018-01-31 23:38:26 · 1243 阅读 · 0 评论 -
【机器学习笔记1】Logistic回归总结
1.引言看了Stanford的Andrew Ng老师的机器学习公开课中关于Logistic Regression的讲解,然后又看了《机器学习实战》中的LogisticRegression部分,写下此篇学习笔记总结一下。首先说一下我的感受,《机器学习实战》一书在介绍原理的同时将全部的算法用源代码实现,非常具有操作性,可以加深对算法的理解,但是美中不足的是在原理上介绍的比较粗略,很多细节没有具体介绍。...转载 2018-03-15 10:18:33 · 430 阅读 · 0 评论 -
伯努利分布、二项分布、多项分布、Beta分布、Dirichlet分布、连续分布(正态分布)、大数定理、中心极限定理、贝叶斯理论
机器学习中常遇到关于各种分布的问题,不过这些知识都已经忘得差不多了,就搜了点资料,详细讲解下伯努利分布、二项分布、多项分布、Beta分布、Dirichlet分布 ,用于后期回顾。 ...转载 2018-03-14 22:06:16 · 866 阅读 · 0 评论 -
Logistic Regression(逻辑回归)原理及公式推导
版权声明:本文为原创文章:http://blog.youkuaiyun.com/programmer_wei/article/details/52072939Logistic Regression(逻辑回归)是机器学习中一个非常非常常见的模型,在实际生产环境中也常常被使用,是一种经典的分类模型(不是回归模型)。本文主要介绍了Logistic Regression(逻辑回归)模型的原理以及参数估计、公式推导方法...转载 2018-01-29 18:28:16 · 625 阅读 · 0 评论 -
矩阵分解模型(1):ALS学习算法
一、矩阵分解模型。用户对物品的打分行为可以表示成一个评分矩阵A(m*n),表示m个用户对n各物品的打分情况。如下图所示:其中,A(i,j)表示用户user i对物品item j的打分。但是,用户不会对所以物品打分,图中?表示用户没有打分的情况,所以这个矩阵A很多元素都是空的,我们称其为“缺失值(missing value)”。在推荐系统中,我们希望得到用户对所有物品转载 2018-01-29 14:53:17 · 876 阅读 · 0 评论 -
推荐系统中隐语义模型
使用LFM(Latent factor model)隐语义模型进行Top-N推荐最近在拜读项亮博士的《推荐系统实践》,系统的学习一下推荐系统的相关知识。今天学习了其中的隐语义模型在Top-N推荐中的应用,在此做一个总结。隐语义模型LFM和LSI,LDA,Topic Model其实都属于隐含语义分析技术,是一类概念,他们在本质上是相通的,都是找出潜在的主题或分类。这些技术一开始都转载 2018-01-29 11:06:11 · 294 阅读 · 0 评论 -
特征值和特征向量
https://www.zhihu.com/question/21874816转载 2018-01-19 10:35:43 · 349 阅读 · 0 评论 -
斯坦福大学CS224d基础1:线性代数知识
作者:Zico Kolter (补充: Chuong Do) 时间:2016年6月 翻译:@MOLLY(mollyecla@gmail.com) @OWEN(owenj1989@126.com) 校正:@寒小阳(hanxiaoyang.ml@gmail.com) @龙心尘(johnnygong.ml@gmail.com) 出处:http://blog.csdn.ne转载 2018-01-18 15:58:14 · 327 阅读 · 0 评论 -
隐形马尔可夫模型
作者:henry链接:https://www.zhihu.com/question/20962240/answer/64187492来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。隐形马尔可夫模型,英文是 Hidden Markov Models,所以以下就简称 HMM。既是马尔可夫模型,就一定存在马尔可夫链,该马尔可夫链服从马尔可夫性质:即无转载 2018-01-09 17:54:08 · 533 阅读 · 0 评论 -
word2vec 中的数学原理详解
(一)目录和前言(二)预备知识(三)背景知识(四)基于 Hierarchical Softmax 的模型(五)基于 Negative Sampling 的模型(六)若干源码细节作者: peghoty 出处: http://blog.youkuaiyun.com/itplus/转载 2018-01-09 11:15:12 · 1018 阅读 · 0 评论 -
中文分词算法总结
什么是中文分词众所周知,英文是以 词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字连起来才能描述一个意思。例如,英文句子I am a student,用中文则为:“我是一个学生”。计算机可以很简单通过空格知道student是一个单词,但是不能很容易明白“学”、“生”两个字合起来 才表示一个词。把中文的汉字序列切分成有意义的词,就是中文分词,有些人也称为切词。我是一个学转载 2018-01-09 10:05:15 · 1658 阅读 · 0 评论 -
深度学习、自然语言处理和表征方法
简介过去几年,深度神经网络在模式识别中占绝对主流。它们在许多计算机视觉任务中完爆之前的顶尖算法。在语音识别上也有这个趋势了。虽然结果好,我们也必须思考……它们为什么这么好使?在这篇文章里,我综述一下在自然语言处理(NLP)上应用深度神经网络得到的一些效果极其显著的成果。我希望能提供一个能解释为何深度神经网络好用的理由。我认为这是个非常简练而优美的视角。单隐层神经网络转载 2018-01-09 10:04:09 · 565 阅读 · 0 评论 -
支持向量机通俗导论(理解SVM的三层境界)
支持向量机通俗导论(理解SVM的三层境界)作者:July 。致谢:pluskid、白石、JerryLead。说明:本文最初写于2012年6月,而后不断反反复复修改&优化,修改次数达上百次,最后修改于2016年11月。声明:本文于2012年便早已附上所有参考链接,并注明是篇“学习笔记”,且写明具体参考了pluskid等人的文转载 2018-01-09 10:02:02 · 448 阅读 · 0 评论 -
如何理解beta分布?
相信大家学过统计学的都对 正态分布 二项分布 均匀分布 等等很熟悉了,但是却鲜少有人去介绍beta分布的。用一句话来说,beta分布可以看作一个概率的概率分布,当你不知道一个东西的具体概率是多少时,它可以给出了所有概率出现的可能性大小。举一个简单的例子,熟悉棒球运动的都知道有一个指标就是棒球击球率(batting average),就是用一个运动员击中的球数除以击球的总数,我们一般认为0.266是...转载 2018-03-14 14:30:46 · 8965 阅读 · 4 评论