
机器学习算法基础
文章平均质量分 86
Wendy Yao(YW)
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
逻辑回归
逻辑回归(Logistic Regression逻辑回归预测函数决策边界逻辑回归代价函数逻辑回归正则化 逻辑回归是解决分类问题的,如垃圾邮件分类、预测肿瘤是良性还是恶性、预测某人的信用是否良好等等。逻辑回归中有一个函数叫做Sigmoid Function或者Logistic Function,其中θ是参数矩阵,x是特征矩阵。如下:逻辑回归预...原创 2020-01-31 19:39:04 · 386 阅读 · 0 评论 -
岭回归(Ridge Regression)
岭回归(Ridge Regression)岭回归基本原理sklearn实现岭回归标准方程法实现岭回归岭回归基本原理 岭回归的代价函数加入了一个L2正则项(没有正则项的是无偏估计,加入正则项的代价函数为有偏估计),最后一个正则项系数label与前面的岭系数label不一样。下面是岭回归的代价函数: &nb...原创 2020-01-10 21:09:41 · 41306 阅读 · 4 评论 -
特征缩放、交叉验证法、过拟合、正则化
特指缩放、交叉验证法、过拟合、正则化特征缩放交叉验证法过拟合(Overfitting)正则化(Regularized)特征缩放 可以看到上面的例子,当数据不一致时,即类型和单位不一致时,会造成画的图像取的单元格大小相差很大,使用梯度下降法寻找全局最小值时的效果就不尽人意,所以为了解决这个问题,最好对数据进行处理,即进行数据的特征缩放,特征...原创 2020-01-09 20:26:10 · 625 阅读 · 0 评论 -
标准方程法
标准方程法 Normal Equation标准方程法原理线性回归实现标准方程法标准方程法原理 标准安全法与梯度下降法都是用来解决线性回归的方法。假如有一个代价函数J(θ),画出图像如下图,可以看到这个代价函数有一个全局最小值,通过求导,令导数为0,可以求出θ1、θ2……的值。 可以看...原创 2020-01-09 19:24:03 · 636 阅读 · 0 评论 -
sklearn实现多项式回归
多项式回归 一个数据集,用散点图画出来如下图,可以看到此时用一条直线(或者超平面)是不能拟合的,所以需要用一个多项式表示的曲线(或者超曲面)才能得到更好的拟合结果。 下面可以看一个例子:有不同职位,分成10个等级,不同等级的工资不同,可以根据等级(横坐标)和工资(纵坐标)来画一个散...原创 2020-01-08 18:43:30 · 4316 阅读 · 0 评论 -
多元线性回归
多元线性回归多元线性回归原理多元线性回归原理 多元线性回归表示有多个特征,如X1,X2……原创 2020-01-03 11:00:11 · 655 阅读 · 0 评论 -
sklearn实现一元线性回归
sklearn实现一元线性回归 sklearn是完成机器学习最常用的库。此库封装了很多种机器学习算法,算法的细节都被封装在库里面,我们使用时只需要调用它的接口就可以了。 from sklearn.linear_model import LinearRegression import numpy as np import matplot...原创 2020-01-02 22:10:03 · 1166 阅读 · 0 评论 -
梯度下降法实现一元线性回归
梯度下降法实现一元线性回归 给定一个数据集,该数据集是n行2列的数据。当用记事本打开数据时,每行的2列数据是用逗号隔开的。首先要提取文件里面的数据,之后根据提取的数据进行画图。 数据集见链接:https://pan.baidu.com/s/1Bhn47ynrNaPO_eG191VuUw&...原创 2020-01-02 21:10:39 · 1364 阅读 · 0 评论 -
线性回归与非线性回归
线性回归与非线性回归一元线性回归介绍代价函数与相关函数梯度下降法梯度下降法实现一元线性回归一元线性回归介绍代价函数与相关函数 相关系数的值越接近1,表示样本点越接近于线性关系;相关系数的值越接近0,表示样本点越不接近于线性关系;相关系数的值越接近-1,表示样本点越接近于负相关的关系。  ...原创 2020-01-02 15:15:39 · 1451 阅读 · 0 评论 -
机器学习背景介绍与基本概念
人工智能机器学习神经网络深度学习原创 2019-12-30 19:00:41 · 2727 阅读 · 0 评论