
机器学习
请叫我算术嘉
快手HDFS
展开
-
机器学习-线性回归python实践【1】
写在最前面:线性回归是机器学习最简单的模型,用来寻找最佳拟合曲线。我曾经在数模比赛时用过,虽然只拿了省二。优点是:易于理解,计算简单缺点是:对于非线性的数据拟合效果不好适用数据类型:数值型和标称型数据今天简单介绍下最小二乘法(ordi least squares)这是一组样例数据的的散点图,目的很简单,得到该组数据的最佳拟合曲线第一个函数打开用tab键分隔的文本文件,文件的每一行...原创 2018-10-20 22:53:02 · 15146 阅读 · 1 评论 -
机器学习-k-近邻算法python实践【4】
写在最前面:简单来说,k-近邻算法是用来根据不同的特征进行分类的一种算法优点:精度高、对异常值不敏感、无数据输入假定缺点:计算复杂度高、空间复杂度高适用数据范围:数值型和标称型IDE:Pycharmpython版本:3.6操作系统:macOS MojavekNN(k-近邻算法)的工作原理是:存在一个样本数据集合,也称作训练样本集,这个样本集的每个数据都存在标签,当我们输入没有标签的数...原创 2018-10-28 20:39:21 · 14487 阅读 · 0 评论 -
机器学习-岭回归python实践【2】
写在最前面:当数据的特征大于样本点,线性回归就不能用了,因为在计算[(X^T)*X]的逆时候,n>m,n是特征,m是样本点,此时的输入矩阵不是满秩矩阵,行列式为0。此时,我们可以使用岭回归(ridge regression)简单来说,岭回归就是在矩阵(X^T)*X的基础上加上λI,这样使得矩阵非奇异,从而能对(XTX)-1+λI整体求逆(矩阵X的转置乘矩阵X再求逆矩阵,实在是不会打数学...原创 2018-10-21 14:04:25 · 16533 阅读 · 0 评论 -
机器学习-Logistic回归python实践【3】(10.26更新)
写在最前面:Logistic回归通过Sigmoid函数接受输入然后进行预测首先,介绍一下什么是Sigmoid函数。大家一定听过海维赛德阶跃函数(Heaviside step function),什么?没听过,好吧,换个名字,单位阶跃函数,这个认识吧这个函数的问题在于该函数在跳跃点上从0瞬间跳跃到1,这样处理起来不是很方便然鹅我们还有另一个具有类似性质的函数Sigmoid函数,计算公式如下:...原创 2018-10-24 22:56:30 · 14963 阅读 · 0 评论 -
机器学习-时间序列预测(三)指数平滑
一、概述移动平均法的预测值实质上是以前观测值的加权和,且对不同时期的数据给予相同的加权。这往往不符合实际情况。指数平滑法则对移动平均法进行了改进和发展,其应用较为广泛。基本思想都是:预测值是以前观测值的加权和,且对不同的数据给予不同的权,新数据给较大的权,旧数据给较小的权。根据平滑次数不同,指数平滑法分为:一次指数平滑法、二次指数平滑法和三次指数平滑法等。一次指数平滑法针...原创 2019-05-08 11:30:10 · 12114 阅读 · 0 评论 -
机器学习-时间序列预测(一)线性回归
写在最前面: 原理先不谈,先搭起环境跑一下 等我弄清楚在写。。。 python3.6 windows 7import matplotlibmatplotlib.use('TkAgg')import matplotlib.pyplot as pltimport pandas as pdimport numpy as np...原创 2019-05-06 17:35:52 · 15519 阅读 · 1 评论 -
机器学习-时间序列预测(二)模型概述
时间序列模型主要有AR、MA、ARMA和ARIMA1、AR(Auto Regressive Model)自回归模型AR是线性时间序列分析模型中最简单的模型。通过自身前面部分的数据与后面部分的数据之间的相关关系(自相关)来建立回归方程,从而可以进行预测或者分析。下图中展示了一个时间如果可以表示成如下结构,那么就说明它服从p阶的自回归过程,表示为AR(p)。其中,ut表示白噪声,是时间序...原创 2019-05-07 16:37:10 · 9487 阅读 · 0 评论 -
多变量LSTM模型
多变量时间序列数据是指每个时间步长有多个观察值的数据。对于多变量时间序列数据,我们可能需要两种主要模型;他们是:多输入系列。 多个并联系列。1、多输入系列问题可能有两个或更多并行输入时间序列和输出时间序列,这取决于输入时间序列。输入时间序列是平行的,因为每个系列在同一时间步骤具有观察。我们可以通过两个并行输入时间序列的简单示例来演示这一点,其中输出序列是输入序列的简单添加...原创 2019-05-12 23:36:01 · 23201 阅读 · 3 评论