
机器学习
文章平均质量分 68
阿土伯伯
这个作者很懒,什么都没留下…
展开
-
机器学习实战笔记(二)KNN(K-Nearest Neighbors) k-近邻算法
特点:精度高、对异常值不敏感、无输入假定;计算复杂度高,空间复杂度高。适用数值型和标称型(枚举?)原理:存在一个样本数据集合(训练样本),样本集中每个数据(特征)都存在标签(分类结果),即我们知道样本集中每一个样本数据与分类的对应关系。输入一个新的数据,将新数据的每个特征与样本集数据中的特征进行比较,这种比较一般用相似算法来实现。比较完后通过算法找到样本集中特征最相似的k个数据原创 2013-06-28 14:34:39 · 1741 阅读 · 0 评论 -
K-MEANS聚类算法
介绍:在前一篇博客机器学习实战笔记(二)KNN(K-Nearest Neighbors) k-近邻算法中描述了KNN算法的基本信息,刚好有一个算法名字和他有点象K-MENS(K-均值聚类)算法。不过这两个算法是非常不一样的两种算法,KNN是一种分类算法,属于机器学习中监督学习算法。即事先知道了有多少个类别和每个类别对应的特征信息,假定要分类的样本实例一定有一个一直的类别和他对应。而K-MEAN原创 2013-07-03 23:56:07 · 1255 阅读 · 0 评论 -
机器学习实战笔记(三)决策树
这章的内容开始有点晦涩了,有几个地方还没有弄得太明白。先按照一般思路往下说吧。特点:计算复杂度不高、输出结果易于理解、对中间值的缺失不敏感、可以处理不相关特征数据、适用数据类型是数值型和标称值型数据(离散数据)、可能会产生过度匹配问题原理:在给定的数据集上,可以根据不同的特征值对数据集进行重新划分为不包含该特征的子集,其中能够找到一个最好的特征对数据集进行划分,每个字数据集对应了决原创 2013-07-18 18:24:24 · 723 阅读 · 0 评论