
机器学习
文章平均质量分 71
煎饼果子来一套
这个作者很懒,什么都没留下…
展开
-
PageRank---Bringing Order to the Web
PageRank-----------------Bringing Order to the Web motivation——为什么有这个算法一个搜索引擎收录了全球的网页信息,可是这么多的网页,到底哪个网页才是优质的网站呢?作为一个查找信息的用户,肯定希望搜索得出的结果是有充实内容的而不是充斥着大量广告的页面。那么,如何在成万上亿的网页中给他们做个重要性排序呢?PageRank很好地解原创 2014-12-10 18:10:23 · 1514 阅读 · 1 评论 -
我所理解的word2vec
建议前往个人博客:http://yobobobo001.github.io/2016/05/26/%E6%88%91%E6%89%80%E7%90%86%E8%A7%A3%E7%9A%84word2vec/ 更好阅读显示 最近开始加固NLP的基础技能,首当其冲的是word2vec,对word2vec的印象一直停留在:学出来的向量隐含了词语的信息,向量之间的夹角可以表示词语之间的相关性。现在,一原创 2016-06-22 16:04:03 · 12006 阅读 · 1 评论 -
我们常说的正则化防止过拟合是怎么一回事
从上周开始,突然想起了正则化这么个东西,一直都听到加个范数就可以防止过拟合,正则化为什么这么神奇呢? 断断续续地看了一周的相关书籍,博客,决定先来个短暂的总结,以后有了更深入的理解再来补充。什么是过拟合第一范数正则化项定义模型变化基于 Occams razor 的解释第二范数正则项定义模型变化现在我们给它加上一个一范数正则化项有condition number再遇贝叶斯原创 2015-10-04 19:21:34 · 13041 阅读 · 3 评论 -
PCA-Principal Components Analysis数学原理
PCA-Principal Components Analysis最近自学的重点是特征工程,首当其冲的当然是PCA,可是看了好几篇国内搜索靠前的博客大部分都是做法而不是原理,为什么协方差矩阵的特征值最大就说明投影到这个特征向量上比其他的好呢?对于机器学习大部分时间都是调用别人写好的库就像是个用着黑盒子的感觉,特来一发原理,附上完整的数学推导。原创 2015-08-16 22:25:59 · 5533 阅读 · 5 评论 -
Kaggle系列——Titanic 80%+精确度纪录
因为最近模型上线收益没有符合预期,一直都没有时间搞,而且感觉Titanic的数据量太少了,做起来没意思,暂且优化到0.8的precision,排名700+原创 2015-09-04 22:24:40 · 17577 阅读 · 8 评论 -
GBDT(Gradient Boosted Decision Tree)
GBDT,全称Gradient Boosted Decision Tree,是一个由多棵决策树组成的模型,可用于分类,回归。GBDT的由来通俗的理解方式数学表达GBDT的由来决策树是常见的模型之一,它通过启发式搜索的方法来寻找划分特征的区间(划分特征向量的空间),划分的依据有好几种,比如信息增益,基尼指数之类的。决策树常见的一个问题就是过拟合(当然,这是所有模型都会出现的一个问题,这是在决原创 2015-09-16 11:51:51 · 4993 阅读 · 8 评论 -
致敬贝叶斯以及自己对贝叶斯的一些见解
记得大二的时候,概率论里面有全概率公式这么一个东西,可是当时仅仅为了应付考试并没有体会到贝叶斯的强大,接触机器学习之后,渐渐体会到贝叶斯的神奇,也能通过贝叶斯来解释更多的模型。贝叶斯由来与日常思维相似的推导过程由已知推导未知贝叶斯的应用朴素贝叶斯贝叶斯网络换个角度理解贝叶斯贝叶斯与正则化防止过拟合贝叶斯由来与日常思维相似的推导过程以下是火影忍者剧情中的某个日常: 第一集:某风和日原创 2015-10-01 01:16:34 · 2150 阅读 · 2 评论 -
决策树小结----统计学习方法读书笔记
决策树是一种基本的分类与回归方法,在分类原创 2014-08-10 17:35:20 · 1858 阅读 · 0 评论 -
[Model-based]基于模型的强化学习论文合集
[Model-based]基于模型的强化学习论文合集最近组里在讨论接下来在强化学习这块的研究方向,在讨论之前,我们把强化学习各个子方向的论文都粗略过了一下,涉及到model-free/model-based/multi-agent/deep exploration/meta-learning/imitation learning/application/distributed training等...原创 2019-07-11 00:30:39 · 715 阅读 · 0 评论