
监督学习
文章平均质量分 96
Duanxx
这个作者很懒,什么都没留下…
展开
-
Lasso Regression
Lasso Regression标签(空格分隔): 监督学习在数据挖掘和机器学习算法的模型建立之初,为了尽量的减少因缺少重要变量而出现的模型偏差问题,我们通常会尽可能的多的选择自变量。但是在实际建模的过程中,通常又需要寻找 对响应变量具有解释能力的自变量子集,以提高模型的解释能力与预测精度,这个过程称为特征选择。原创 2016-06-07 15:10:32 · 55569 阅读 · 8 评论 -
支持向量机(SVM)三
感知机模型对应于特征空间中将实例划分为正负两类的分离超平面,但是,感知机的解却不止一个。对同一个数据集而言,可以计算得到很多的感知机模型,不同的感知机的 **训练误差** 都是一样的,都为0。那么,这些训练误差都为0的感知机模型中,如何针对当前数据集,选择一个最好的感知机模型呢?现在就需要考虑模型的 **泛化误差** 了。即,在所有训练误差为0的感知机中,选择泛化误差最小的那个感知机,这就是SVM算法最初的目的。原创 2016-07-31 16:55:05 · 4240 阅读 · 1 评论 -
支持向量机(SVM)二
感知机模型对应于特征空间中将实例划分为正负两类的分离超平面,但是,感知机的解却不止一个。对同一个数据集而言,可以计算得到很多的感知机模型,不同的感知机的 **训练误差** 都是一样的,都为0。那么,这些训练误差都为0的感知机模型中,如何针对当前数据集,选择一个最好的感知机模型呢?现在就需要考虑模型的 **泛化误差** 了。即,在所有训练误差为0的感知机中,选择泛化误差最小的那个感知机,这就是SVM算法最初的目的。原创 2016-07-31 16:53:33 · 4460 阅读 · 0 评论 -
支持向量机(SVM)一
感知机模型对应于特征空间中将实例划分为正负两类的分离超平面,但是,感知机的解却不止一个。对同一个数据集而言,可以计算得到很多的感知机模型,不同的感知机的 **训练误差** 都是一样的,都为0。那么,这些训练误差都为0的感知机模型中,如何针对当前数据集,选择一个最好的感知机模型呢?现在就需要考虑模型的 **泛化误差** 了。即,在所有训练误差为0的感知机中,选择泛化误差最小的那个感知机,这就是SVM算法最初的目的。原创 2016-07-31 16:51:51 · 8216 阅读 · 1 评论 -
稳健回归(Robustness regression)
之前文章里的关于线性回归的模型,都是基于最小二乘法来实现的。但是,当数据样本点出现很多的异常点(outliers),这些异常点对回归模型的影响会非常的大,传统的基于最小二乘的回归方法将不适用。原创 2016-07-08 09:27:06 · 57006 阅读 · 4 评论 -
贝叶斯线性回归(Bayesian Linear Regression)
在很多的机器学习或数据挖掘的问题中,我们所面对的只有数据,但数据中潜在的概率密度函数是不知道的,其概率密度分布需要我们从数据中估计出来。想要确定数据对应的概率密度分布,就需要确定两个东西:**概率密度函数的形式** 和 **概率密度函数的参数**。原创 2016-06-21 09:50:40 · 99949 阅读 · 7 评论 -
多项式曲线拟合(Polynomial Curve Fitting)
多项式曲线拟合(Polynomial Curve Fitting)标签:监督学习多项式特征生成在机器学习算法中,基于针对数据的非线性函数的线性模型是非常常见的,这种方法即可以像线性模型一样高效的运算,同时使得模型可以适用于更为广泛的数据上,多项式拟合就是这类算法中最为简单的一个。关于多项式回归的应用,这里举个非常简单的例子:一般的线性回归,模型既是参数ww的线性函数,同时也是输入变量xx的线性函数,原创 2016-06-05 10:18:16 · 111369 阅读 · 7 评论 -
脊回归(Ridge Regression)
脊回归(Ridge Regression)@ author : duanxxnj@163.com在《线性回归(Linear Regression)》中提到过,当使用最小二乘法计算线性回归模型参数的时候,如果数据集合矩阵(也叫做设计矩阵(design matrix))XX,存在多重共线性,那么最小二乘法对输入变量中的噪声非常的敏感,其解会极为不稳定。为了解决这个问题,就有了这一节脊回归(Ridge R原创 2016-06-03 14:43:19 · 57475 阅读 · 2 评论 -
线性回归
线性回归(Linear Regression)@author : duanxxnj@163.com对于一个的拥有mm个观测的训练数据集XX而言,回归的目的就是要对新的nn维输入xx,预测其对应的一个或者多个目标输出tt。线性回归模型的基本特性就是:模型是参数的线性函数。最简单的线性回归模型当然是模型是参数的线性函数的同时,也是输入变量的线性函数,或者叫做线性组合。如果我们想要获得更为强大的线性模型,原创 2016-06-03 10:22:43 · 20251 阅读 · 7 评论 -
感知机(Perceptron)
之前的线性回归的概率解释中,假设样本的概率密度函数的参数形式是已知的,然后需要基于样本,使用参数估计的方法来估计概率密度函数的参数值;这里的感知机算法和前一篇文章《LR回归》,都是直接假设判别函数的参数形式是已知的,然后基于训练样本,来估计判别函数的参数值,被称为判别式方法。感知机所得到的是一个线性判别函数。而一般来说,寻找线性判别函数的问题,会被形式化为极小化准则函数的问题,以分类为目的的准则函数可以是样本的风险函原创 2016-07-04 16:47:34 · 7640 阅读 · 2 评论 -
逻辑斯蒂回归(Logistic Regression)
LR回归,虽然这个算法从名字上来看,是回归算法,但其实际上是一个分类算法,学术界也叫它logit regression, maximum-entropy classification (MaxEnt)或者是the log-linear classifier。在机器学习算法中,有几十种分类器,LR回归是其中最常用的一个。原创 2016-07-03 19:57:32 · 36768 阅读 · 5 评论 -
线性判别分析(Linear Discriminant Analysis)
从贝叶斯公式出发,得到了线性判别分析的公式,这里从另外一个角度来看线性判别分析,也就是常说的Fisher判别式。其实Fisher判别式就是线性判别分析(LDA),只是在讨论Fisher判别式的时候,更侧重于LDA的数据降维的能力。原创 2016-07-11 16:34:37 · 77937 阅读 · 12 评论