
机器学习
文章平均质量分 65
changzoe
这个作者很懒,什么都没留下…
展开
-
itertools学习笔记
itertools用于高效循环的迭代函数集合原创 2017-12-22 17:07:32 · 409 阅读 · 0 评论 -
集成学习Adaboost算法及python实现及sklearn包的调用
集成方法(ensemble method)集成方法主要包括Bagging和Boosting两种方法。 bagging 基于数据重抽样的分类器构建方法 在Bagging方法中,主要通过对训练数据集进行随机采样,以重新组合成不同的数据集,新数据集和旧数据集大小相等,利用弱学习算法对不同的新数据集进行学习,得到一系列的预测结果,对这些预测结果做平均或者投票做出最终的预测。注:随机森林算法是基于Baggin原创 2017-12-28 14:20:25 · 20598 阅读 · 0 评论 -
机器学习之奇异值分解SVD及应用于协同过滤推荐和LSA潜在语义分析
隐形语义分析LSA隐形语义分析(LSA)是一种自然语言处理中用到的方法,又称为隐形语义索引 LSI,其通过“矢量语义空间”来提取文档与词中的“概念”,进而分析文档与词之间的关系。LSA的基本假设是,如果两个词多次出现在同一文档中,则这两个词在语义上具有相似性。LSA使用大量的文本上构建一个矩阵,这个矩阵的一行代表一个词,一列代表一个文档,矩阵元素代表该词在该文档中出现的次数,然后再此矩阵上使用奇异值原创 2017-12-22 12:07:12 · 1450 阅读 · 0 评论 -
评估方法与CrossValidation交叉验证
评估方法关键:怎么获得“测试集”(test set) ?测试集应该与训练集“互斥”常见方法: 留出法 (hold-out) 交叉验证法 (cross validation) 自助法 (bootstrap) 留出法注意: 保持数据分布一致性 (例如: 分层采样) 多次重复划分 (例如: 100次随机划分) 测试集不能太大、不能太小 (例如:1/5~1/3)k-折交叉验证法自助法 sklearn原创 2017-12-29 14:29:01 · 4301 阅读 · 0 评论 -
逻辑回归及其python实现
逻辑回归原理sigmod函数下图给出了sigmod 函数在不同坐标尺度下的两条曲线图。当 x 为 0 日牝 Sigmoid 函数值为 0.5 。 随着 1 的增大,对应的sigmod值将逼近于 1; 而随着 x 的减小, Sigmoid 值将逼近于 0 。如果横坐标 刻度足够大(下图 ),sigmod 函数看起来很像一个阶跃函数。原理 上图,将y作为正例的可能性,则1-y是反例的可能性•原创 2017-12-29 16:12:50 · 999 阅读 · 0 评论 -
rpart 决策树
节点和结点的区别:节点为两线相交,不为终点;而结点为两线相交为终点,没有延伸; 1.分支节点:它指向其他的节点,所以是度不为0的节点。 vs 叶子结点:度为0的结点 2.度:结点拥有的子树数;就是说这个结点下面有几条分支 3.树的深度:树有几层 4.10折交叉验证:常用的测试算法准确性的方法。 将数据集分成10份,轮流将其中9份作为训练数据,1份作为测试数据,进行试验 每次试验...原创 2018-04-25 10:46:49 · 2501 阅读 · 0 评论