
机器学习
dz4543
这个作者很懒,什么都没留下…
展开
-
机器学习3——贝叶斯分类器
- **机器学习3——贝叶斯分类器**Bayes决策论是概率框架下进行决策的基本方法之一,也是统计模式是别的主要方法之一。贝叶斯分为俩个学派:贝叶斯学派和频率学派。频率学派强调频率的“自然属性”,认为该使用事件在重复实验中发生的频率作为其发生的概率的估计。贝叶斯...原创 2018-05-08 22:18:32 · 409 阅读 · 0 评论 -
07 PCA(主成分分析)之梯度上升法
上篇讲的是PCA基于矩阵操作方法的实现,本文讲的是基于梯度上升法实现的PCA。PCA之梯度上升法PCA原理主成分分析PCA均值归零(demean)映射轴和方差梯度上升法代码实现单个主成分分析多个主成分分析PCA原理假设现有样本的分布如下图所示。样本有两个特征,也就是二维的数据:特征1和特征2,如果对样本进行降维,首先可以考虑基于坐标轴进行降维。会有如下两种方式:舍弃特征1,只保留特征2,...原创 2019-02-01 21:25:56 · 1118 阅读 · 1 评论 -
00 knn(K Nearest Neighbor)
这里写自定义目录标题k近邻k必须是奇数不能为偶数?功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入k近邻顾名思义,是...原创 2019-01-23 21:55:09 · 1172 阅读 · 0 评论 -
05 Logistic Regression
1 Logistic 原理逻辑回归从字面上看是一个回归问题,很容易和回归分析联系到一起。这是字面意思给人的错觉,其实它不是回归问题!它是最典型的分类问题,经典的二分类,比如检查邮件是否是垃圾邮件,检查一个零件是否是合格件,判断一个西瓜是否成熟等等,这些日常生活中经常用于判断是非黑白的问题,都能用到这个经典的二分类之逻辑回归。如下图:这样一个线性可分的问题,需要这么一个超平面将其分开。而逻辑回...原创 2019-01-02 18:00:59 · 243 阅读 · 0 评论 -
04 聊聊线性回归多重共线性
感谢:1. 机器学习之线性回归:OLS 无偏估计及相关性python分析2. 机器学习线性回归:谈谈多重共线性问题及相关算法共线性’对于最小二乘线性回归,它本身是比较怕共线性的。请看下面公式:θ=(XTX)−1XTy\theta=(X^TX)^{-1}X^Tyθ=(XTX)−1XTy那么,如果XTXX^TXXTX奇异矩阵(不满秩),则XTXX^TXXTX不能求逆了。自然就无法求解。但是...原创 2019-01-01 21:07:44 · 3892 阅读 · 2 评论 -
03 线性回归Python代码
假设获得这么些数据: |房屋面积 | 使用年限 | 价值| [[ 0.35291809, 0.16468428, 0.35774628], [-0.55106013, -0.10981663, 0.25468008], [-0.65439632, -0.71406955, 0.1061582 ], [-0.197906...原创 2019-01-01 16:37:02 · 541 阅读 · 0 评论 -
02 二分法迭代求零点
感谢Python与机器学习算法频道。接着来学二分法迭代求零点。01对于区间[a,b][a,b][a,b]上单调连续函数y=f(x)y=f(x)y=f(x),若f(a)×f(b)<0f(a)×f(b)<0f(a)×f(b)<0,通过不断地把函数 f(x)f(x)f(x)的零点所在区间一分为二,使区间的两个端点逐步逼近零点(一个解),进而得到零点近似值的方法叫二...转载 2018-12-26 22:25:19 · 2030 阅读 · 0 评论 -
01 牛顿迭代公式
01设 r 是f(x) = 0的根,选取x0x_0x0 作为r的初始近似值,过点 (x0,f(x0))(x_0,f(x_0))(x0,f(x0)) 做曲线 y=f(x)y = f(x)y=f(x) 的切线L,L的方程为y=f(x0)+f′(x0)(x−x0) y = f(x_0)+f'(x_0)(x-x_0)y=f(x0)+f′(x0)(x−x0),求出L与x轴交点...转载 2018-12-26 21:52:54 · 1840 阅读 · 0 评论 -
视觉机器学习2(补)——K近邻
关于使用OpenCV实现,手写体的OCR应用程序。参考OpenCV官方文档。比较坑的是一个是OpenCV版本使用接口不一样,我装的opencv3.4,查的确实3.0的指南,以为没什么差别。结果一个是数据’digits.png’,这张图是缺失,应该是装轮子时每装这个,一个是函数KNearest()变了,3.0的和3.4的不一样。另外说一句,官方使用2.x的语法,我用的3.6的编译器。后来我找...原创 2018-05-10 22:15:48 · 278 阅读 · 0 评论 -
视觉机器学习1(补)——Kmeans
OpenCV是一个开源的视觉库,里面也封装了机器学习的相关库。下面介绍用OpenCV实现Kmeans。OpenCV中使用cv.kmeans()函数进行数据聚类。-输入参数: 1. 样本:它应该是np.float32数据类型,并且每个要素应放在一个列中 2. n群(K):最后需要的群集数 3. 标准:这是迭代终止标准。当满足这个标准时,算法迭代停止。实际上,它应该是3个参数的元组...原创 2018-05-09 10:27:04 · 237 阅读 · 0 评论 -
视觉机器学习1——K-means
K-means(K均值)是一种无监督学习算法,也属于聚类算法,样本集预先不知道所属类别或标签,根据样本之间的距离或者相似程度自动进行分类。在经典k-means聚类算法中,映射是通过样本和样本和个中心之间的最小平方和最小准则来建立的。求解目标函数是一个NP-hard问题,无法保证的带一个稳定的全局最优解。而经典的K-means(由Stuart Lloyd提出的)聚类算法中,采取迭代优化策略,有效求取...原创 2018-05-04 19:12:46 · 1192 阅读 · 0 评论 -
06 PCA(主成分分析)之特征值分解
参考博客:主成分分析(PCA)原理详解PCA (主成分分析)详解 (写给初学者)PCA之特征分解1. 相关背景2. 数据降维3. PCA原理详解3.1 什么是PCA3.2 协方差和散度矩阵3.3 特征值分解矩阵原理3.4 SVD分解矩阵原理3.5 PCA算法两种实现方法(1) 基于特征值分解协方差矩阵实现PCA算法(2) 基于SVD分解协方差矩阵实现PCA算法4 PCA实例](PCA之特征...原创 2019-01-30 22:55:07 · 8149 阅读 · 0 评论