
机器学习
文章平均质量分 50
肥胖的攀爬者
这个作者很懒,什么都没留下…
展开
-
《机器学习实战》-决策树-Plotting trees in Python with Matplotlib annotations-代码语法
在《机器学习实战》这本书中,学习到Plotting trees in Python with Matplotlib annotations这个章节,发现里面的一些代码并不是容易理解的,对其中的内容做一个注解,分为两部分,一个是里面代码的语句语法内容,一个是代码的逻辑实现内容,本文则是讲所涉及代码的语法。decisionNode = dict(boxstyle="sawtooth",fc="0.8"...原创 2018-05-02 15:16:29 · 227 阅读 · 0 评论 -
《机器学习实战》-决策树-Plotting trees in Python with Matplotlib annotations-代码逻辑(plotTree函数)
用递归函数绘制决策树的图,前面说了语法问题,现在要说关于代码逻辑的问题,猛地一看确实很难理解,网上找了找,发现有一篇关于解释这个逻辑——plotTree函数完全解析,但是里面的内容有些混乱,有点将结果设置原因,进行解释。比如plotTree.xOff的赋值,初始值为-0.5/plotTree.totalW,在文章中将其设为原因,因为其初始值是这个所以要在算法上加,“由于开始plotTree.xOf...原创 2018-05-03 21:30:28 · 870 阅读 · 0 评论 -
《机器学习实战》-K最近邻分类(k-Nearest Neighbor,KNN)-shape函数
设置非单位矩阵理解 Shape[0]和shape[1] Shape[0]得到矩阵的行数shape[1]得到矩阵的列数将kNN算法每步拆开理解其中的内容原创 2018-04-26 17:50:08 · 222 阅读 · 0 评论 -
《机器学习实战》-K最近邻分类(k-Nearest Neighbor,KNN)-tile函数
代码理解:原创 2018-04-26 17:51:40 · 257 阅读 · 0 评论 -
《机器学习实战》 计算熵出现问题
编辑的锅,排版出现了问题。文中:(得出结果是0.9287712379549449)实际:(得出结果是0.9709505944546686,基本保持一致)原创 2018-04-26 17:53:57 · 243 阅读 · 0 评论 -
《机器学习实战》~决策树~代码理解
chooseBestFeatureToSplit(dataSet)函数中:featList = [example[i] for example in dataSet] 请查找关于Python的列表生成式(list comprehensions)内容。原创 2018-04-26 17:57:02 · 327 阅读 · 0 评论 -
《机器学习实战》-贝叶斯分类
vocabList,p0V,p1V=localWords(ny,sf)出现错误将ny=feedparser.parse('http://newyork.craigslist.org/stp/index.rss')sf=feedparser.parse('http://sfbay.craigslist.org/stp/index.rss')更改为:ny=feedparser.parse('http...原创 2018-05-11 17:40:28 · 1052 阅读 · 0 评论 -
《机器学习实战》-逻辑回归
该部分比较难以理解将理解过程参考的内容贴下来:导数、偏导数和梯度参考1参考2梯度下降参考1均方差、代价函数参考1参考2备注:½是一个常量,这样是为了在求梯度的时候,二次方乘下来就和这里的½抵消了,自然就没有多余的常数系数,方便后续的计算,同时对结果不会有影响代码解析参考1参考2...原创 2018-05-28 15:56:41 · 264 阅读 · 0 评论 -
《机器学习实战》-树回归
mat0 = dataSet[nonzero(dataSet[:,feature] > value)[0],:] mat1 = dataSet[nonzero(dataSet[:,feature] <= value)[0],:] dataSet[:,m]是numpy中对于矩阵的截取。dataSet[:,0]就是取矩阵X的所有行的第0列的元素dataSet[:, m:n]即取矩...原创 2018-06-27 14:47:45 · 320 阅读 · 0 评论