昌哥的机器学习笔记
文章平均质量分 51
恰巧偶遇
终有一天剑在手,杀尽天下负我狗
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
KNN实战莺尾花数据集
0 前言俗话说,实践才能出真理,能动手就不要逼逼,下面将利用莺尾花数据集实战KNN算法。1 实战概述首先,要介绍一下这个实战的整体思路:要做什么、怎么做!第一步,我们应该拿到数据集,了解数据集信息:数据集内包含 3 类共 150 条记录,每类各 50 个数据,每条记录都有 4 项特征:花萼长度、花萼宽度、花瓣长度、花瓣宽度(莺尾花数据集已经疯子在sklearn库中,可直接调用);第二步,将数...原创 2020-02-24 21:55:54 · 1084 阅读 · 0 评论 -
KNN算法原理
1 概述KNN算法是由Cover和Hart在1968年提出的使用邻居信息构建最近邻图来做分类的算法,它是机器学习中常用且简单的分类算法。它的核心主要包括三个要素:k值的选择、距离计算、分类规则,主要弄懂了这三个要素便能上手KNN算法了。2 K值的选择首先,你得理解KNN算法的工作原理:假如我们有一堆的二维数据点(多维的也是可以,用二维方便举例),现在将这些点描绘在一个二维平面图上(如下图,五...原创 2020-02-24 19:00:12 · 1702 阅读 · 0 评论 -
knn算法的优缺点
简述K近邻算法的优缺点优点1、简单,易于理解,易于实现。2、只需保存训练样本和标记,无需估计参数,无需训练。3、不易受小错误概率的影响。经理论证明,最近邻的渐进错误率最坏时不超过两倍的贝叶斯错误率,最好时接近或达到贝叶斯错误率。缺点1、K的选择不固定。2、预测结果容易受含噪声数据的影响。3、当样本不平衡时,新样本的类别偏向训练样本中数量占优的类别,容易导致预测错误。4、具有较高的...原创 2020-01-07 16:26:39 · 7484 阅读 · 0 评论 -
通俗易懂线性回归实战(二)
使用线性回归实战波士顿房价数据前言在前面我使用了自己构建的简单数据集进行线性回归实战,下面我将使用非常有名的波士顿房价数据,带大家一起完成线性回归模型预测,最终并分析我们得到的模型效果,如有不足还请留言指正~~1、波士顿房价数据介绍波士顿房价数据集是美国马萨诸塞州波士顿房价有关信息,其中包含506个数据样本(每个样本包含13个特征和1个标签),其字段解释为:1、 CRIM: 城镇...原创 2020-01-04 14:46:06 · 515 阅读 · 0 评论 -
通俗易懂线性回归实战(一)
前言前一篇文章我简单介绍了线性回归的原理以及推导过程,下面我将使用一个简单的例子来带大家一起使用sklearn库实战线性回归,并把最终结果进行可视化。1、数据获取在这里简单的构建一些二维数据:import numpy as nplists = [] for i in range(100): #随机构建一百个数据点 x = float(np.random.random([1])...原创 2020-01-03 22:21:50 · 848 阅读 · 2 评论 -
一文详解线性回归原理
前言本文将简单介绍线性回归算法的原理以及推导过程,因为本人也是新手,只按照新手思维去一步步思考,如有错误还请大家指出~~1、概述线性回归模型是用一条曲线拟合一个或多个自变量x与因变量y之间的关系。若曲线是一条直线,则为一元线性回归;若是超平面,则是多元线性回归;否则是非线性回归,常见的非线性回归包括多项式回归、逻辑回归。通过样本学习映射关系f:x->y,得到的预测结果y是连续值变量。...原创 2020-01-03 20:38:21 · 9915 阅读 · 0 评论 -
机器学习与数据挖掘概述
前言本学期学了数据挖掘这个科目(虽然在之前本人就已经学过数据挖掘课程),为了备战期末考试,所以在此将数据挖掘与机器学习内容系统的总结一遍。其中包括机器学习中常用的算法,如线性回归、逻辑回归、贝叶斯、决策树、K-Means等,这是第一篇——机器学习与数据挖掘的概念,这篇博文会有些枯燥,介绍的都是概念性东西。1、数据挖掘概念1.1 定义何为数据挖掘?数据挖掘意指从大量的、不完全的、有噪声的、模...原创 2020-01-03 16:56:24 · 1176 阅读 · 0 评论
分享