[老达笔记]机器学习
只会AI搜索得coder
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
KNN近邻算法总结
K-近邻算法 1.什么是K近邻算法 K近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。 2.分类结果的决定因素 (1)K为近邻的对象个数,结果影响取决于K的值。 (2)测试样本的准确原创 2017-11-29 09:16:08 · 767 阅读 · 0 评论 -
K近邻算法
K-近邻算法(监督) K为邻近的对象个数,结果影响取决于K的值。 运用算法为距离算法,计算测试点到K个对象(每个对象的距离) 计算步骤 1)计算测试数据与各个训练数据之间的距离; 2)按照距离的递增关系进行排序; 3)选取距离最小的K个点; 4)确定前K个点所在类别的出现频率; 5)返回前K个点中出现频率最高的类别作为测试数据的预测分类。 Demo version pyt原创 2017-11-22 13:41:37 · 247 阅读 · 0 评论 -
线性回归
线性回归(监督) (二维)基本公式y=ax+b 计算步骤 1) 首先读入学习的x与 y 2) 通过python数学模型得到斜率,与截距; 3) 然后通过测试数据计算y Demo version python2 import pandas as pd from io import StringIO from sklearn import linear_model原创 2017-11-23 09:27:36 · 293 阅读 · 0 评论 -
SVM算法
SVM是通过超平面将样本分为两类。 在超平面确定的情况下,可以相对地表示点距离超平面的远近。对于两类分类问题,如果0">,则的类别被判定为1;否则判定为-1。 所以如果0">,则认为的分类结果是正确的,否则是错误的。且的值越大,分类结果的确信度越大。反之亦然。 所以样本点与超平面之间的函数间隔定义为 但是该定义存在问题:即和同时缩小或放大M倍后,超平面并没有变化,但是函数间隔却变化了。原创 2017-11-23 10:05:49 · 357 阅读 · 0 评论 -
朴树贝叶斯 sklean 文本分类实现
读取本地文件进行分析,分词中英文都支持,可以换结巴分词。 训练样本可以自己定义,目录结构就是当前项目的 data_log文件夹,一级目录是类别,二级目录是文件即可。 博主训练集合 仅供参考:http://download.youkuaiyun.com/download/yl3395017/10236998 from sklearn.datasets import load_files # 加载数原创 2018-02-02 14:23:55 · 605 阅读 · 0 评论 -
朴树贝叶斯文本分类
朴树贝叶斯文本分类 前两个加载文件为特征分类文件,可以自己定义,例如:第一个文件是体育,第二个文件是新闻 第三个文件是测试文件 自己定义 目前这个demo是二分类 python3 from numpy import * def textParse(bigString): # input is big string, # output is word list # 分词 i原创 2018-01-29 14:16:08 · 450 阅读 · 0 评论
分享