
机器学习
小腊肉越嚼越香
记得苦尽甘来!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
ML-决策树
这里写自定义目录标题决策树的主要优点:具有很好的解释性,模型可以生成可以理解的规则。可以发现特征的重要程度。模型的计算复杂度较低。决策树的主要缺点:模型容易过拟合,需要采用减枝技术处理。不能很好利用连续型特征。预测能力有限,无法达到其他强监督模型效果。方差较高,数据分布的轻微改变很容易造成树结构完全不同。## 基础函数库import numpy as np ## 导入画图库import matplotlib.pyplot as pltimport seaborn as s原创 2020-08-22 20:00:32 · 307 阅读 · 0 评论 -
ML-朴素贝叶斯
从一个最简单的概率分类器开始,通过给出一些假设(1.各特征之间是独立的;2.每个特征同等重要)来学习朴素贝叶斯分类器。朴素贝叶斯的核心思想:选择高概率对应的类别。贝叶斯准则使用这些定义,可以定义贝叶斯分类准则为: 如果P(c1|x, y) > P(c2|x, y),那么属于类别c1。 如果P(c1|x, y) < P(c2|x, y),那么属于类别c2。该函数的伪...原创 2019-11-23 20:09:40 · 179 阅读 · 0 评论 -
ML-决策树
算法原理决策树模型是一种描述对实例进行分类的树形结构。其由结点(node)和有向边(directed edge)组成。结点有两种类型:内部结点(internal node)和叶结点(leaf node)。内部结点表示一个特征或属性(features),叶结点表示一个类(labels)。用决策树对需要测试的实例进行分类:从根节点开始,对实例的某一特征进行测试,根据测试结果,将实例分配到其子结点;...原创 2019-11-23 12:45:03 · 290 阅读 · 2 评论 -
ML-KNN算法
简单来说,k-紧邻算法采用测量不同特征值之间的距离方法进行分类。优点:精度高、对异常值不敏感,无数据输入假定。缺点 :计算复杂度高、空间复杂度高。使用数据范围 : 数值型和标称型(标称型目标变量的结果只在有限目标集中取值,如真与假(标称型目标变量主要用于分类)工作原理:给定一个样本数据集(训练样本集),并且样本集中每个数据都存在标签,即我们知道样本集中每个数据与所属分类的对应关系。对新输...原创 2019-11-17 19:49:04 · 1976 阅读 · 0 评论