机器学习算法
Genius9_9
哎哟喂 无以伦比天才小九九
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Python实现回归算法的衡量指标计算:MSE/RMSE/MAE/R^2
在本文中,通过Python实现MSE/RMSE/MAE/R^2的计算,而非简单调用sklearn.metrics中的方法。先简单介绍各衡量指标公式和意义:1.MSE(均方误差):2.RMSE(均方根误差):3.MAE(平均绝对误差):以上1-3衡量指标,根据不同业务,会有不同的值大小,不具有可读性,故引入R^2衡量指标。4.R^2(决定系数): R越大表示我们的模型效果越好,最大值为1. R=1:...原创 2018-07-16 18:26:39 · 40398 阅读 · 1 评论 -
LinearRegression线性回归算法基本原理分析
线性回归分为简单线性回归和多元线性回归,下面先简单介绍一下这二者:1.简单线性回归:只有一个特征值,预测值公式如下:2.多元线性回归:具有n个特征值,预测值公式如下:(当n=1时,即简单线性回归b=θ0,a=θ1)多元线性回归方程演变成求θ,使得下列目标值(预测值y的误差平方和)最小:sklearn中LinearRegression中的fit()方法就是通过训练集求出θ...原创 2018-07-17 09:24:00 · 6586 阅读 · 0 评论 -
通过PCA选择合适降维维度
PCA的作用有:降低特征值维度,提高了计算效率,但丢失了信息。信息在PCA中我们用方差来表示。一、PCA参数、属性简介1.介绍PCA方法中参数:n_components: 默认值为保留所有特征值维度,即不进行主成分降维 取大于等于1的整数时,即指定我们希望降维后的维数; 取0-1的浮点数时,即指定降维后的方差和占比,比例越大,保留的信息越多。系统会自行计算保留的维度个数。...原创 2018-07-18 15:51:33 · 15918 阅读 · 2 评论 -
Python实现KNN算法--iris数据集
在本文中,通过python实现KNN算法,而非简单的调用sklearn库,并通过iris鸢尾花数据集进行训练和测试。详情参见以下代码:if __name__ == '__main__': trainX, trainY, testX, testY=loadSplitDataSet() preY=KNN(testX) evaluateKNN()#下载iris鸢尾花数据集...原创 2018-07-15 11:27:51 · 3561 阅读 · 0 评论 -
KNN算法-搜索最优超参数:n_neighbors /weight/p
在本文中,将选取正确率作为衡量标准,自行实现搜索最优超参数,而非直接调用sklearn中的GridSearchCV。先简单介绍KNN中的三个超参数:超参数为:n_neighbors /weight/p(只有当weight=distance的时候,p值才有意义)n_neighbors:取邻近点的个数k。k取1-9测试 weight:距离的权重;uniform:一致的权重;distanc...原创 2018-07-15 22:39:01 · 16560 阅读 · 6 评论 -
机器学习之统计和概率论
一、基本数学概念其中四分位数通常用以判断数据集中的异常值。偏态和峰态可用于判断该分布是不是正态分布。二、概率分布概率分布分为离散概率分布和连续概率分布,在python中通过scipy.stats库实现。 离散概率分布:PMF概率质量函数 连续概率分布:PDF概率密度函数详情参阅官方文档:https://docs.scipy.org/doc/scipy/refer...原创 2018-08-01 20:46:41 · 801 阅读 · 0 评论
分享