机器学习
Ai研究僧
好好学习,天天向上。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【机器学习(六)】聚类算法一篇就够。无监督聚类算法:层次聚类、Kmeans聚类、模糊聚类(FCM/模糊Cmeans),从原理、案例和代码详细讲解。
聚类原创 2020-06-25 02:26:57 · 22199 阅读 · 7 评论 -
【机器学习(五)】从决策树到随机森林
引言原创 2020-06-18 09:10:04 · 922 阅读 · 0 评论 -
【机器学习(四)】决策树、ID3算法、C4.5算法、CART算法:原理,案例和代码
引言决策树(decision tree)是一种分类与回归的方法,顾名思义,决策树呈树形结构,可以认为是if-then规则的集合,也可以认为his特征空间与类空间上的条件概率分布。主要的优点:分类速度快、可读性强。决策树学习通常有三个步骤:特征选择、决策树生成和决策树修剪。常用的决策树算法有:ID3算法、C4.5算法和CART算法。决策树定义:分类决策树模型是一种描述对实例进行分类的属性结构。决策树由结点和向边组成。结点有两种类型:内部结点和叶结点。内部结点表示一个特征或者属性,...原创 2020-06-15 16:09:52 · 4625 阅读 · 0 评论 -
【机器学习(三)】机器学习中:信息熵,信息增益,信息增益比,原理,案例,代码实现。
目录引言原理信息熵条件熵信息增益信息增益算法流程信息增益比案例信息熵求解信息增益求解信息增益比求解结果分析案例的代码实现引言在机器学习和深度学习中,经常会用到信息熵(entropy)这个概念,可以理解为熵表示的是随机变量不确定度的衡量。例如概率0.5比概率0.3的不确定度要高。原理信息熵设X是一个取值有限的离散随机变量,其概率分布为:,则随机变量X的熵定义为通常log取2或者3,得到的熵的单位分别称作比特或纳特。从这就可以知道,熵依原创 2020-06-11 17:37:40 · 29925 阅读 · 1 评论 -
【机器学习(二)】K近邻算法:原理、kd树构造和查找、案例分析、代码(机器学习库、自己实现)
k近邻算法是一种分类和回归的算法,可以简单认为:输入:训练的特征向量和标签训练(类)输出:任意给一个输入,得到这个输入的标签(类)因此k近邻有三要素:距离度量、k值选择和分类决策。原理:三要素确定好后,输入一个特征向量,寻找x最近的k个训练特征向量,观察最近的k个特征向量的标签(类),然后选择标签最多的那个标签作为x的标签,输出结果。三要素一:距离度量常用的距离度量方式就是欧式距离,但也包含其他距离度量方式,根据最近的k的距离,就可以选择最近的k训练特征向量。输入特征向量:距原创 2020-06-11 10:36:23 · 1716 阅读 · 0 评论 -
【数据处理(一)】python,opencv和PIL,自己制作数据集的处理脚本:图像尺寸调整、重命名、裁剪、格式转换、尺寸测试和标签测试
目录引言主要函数部分程序介绍程序1:代码:程序2代码:注意事项引言无论在深度学习还是其他图像处理中都需要固定大小的图像作为输入,本文主要使用cv2.resize批量重新设置图像大小。可以批量将手机拍的照片或者分辨率大的图像重新设置到自己固定的大小,例如4000*3000设置到1920*1080,512*512设置到128*128,具体的大小可以自定义。上传两个程序,程序1可以使用编辑器打开运行;程序2可以直接在命令行输入参数运行。主要函数部分重新设置图像大原创 2020-06-03 11:36:53 · 2093 阅读 · 0 评论 -
【机器学习(一)】机器学习中使用朴素贝叶斯(即最小错误率贝叶斯)、最小风险贝叶斯实现分类
目录1. 朴素贝叶斯分类1.1 理论:1.2 朴素贝叶斯算法流程:1.3 举例说明1.3.1 计算步骤:1.3.2 程序代码:2. 贝叶斯估计2.1 算法流程:2.2 举例说明1. 朴素贝叶斯分类朴素贝叶斯是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,先假设输入输出的联合概率分布(特征条件独立);然后给定一个输入x,利用贝叶斯顶级求出输出y。可以简单的认为训练的数据可以得到先验概率分布和条件概率分布,然后输入一个实例,计算这个实例的后原创 2020-06-01 18:03:18 · 3786 阅读 · 0 评论
分享