一、回归分析概述
回归分析是指用一个方程式建立一个因变量与一个或多个自变量之间的关系,可用于预测或推算。
二、回归分析类型
1、线性回归(Linear Regression):
线性回归使用最佳的拟合直线(也就是回归线)在因变量(Y)和一个或多个自变量(X)之间建立一种关系。
2、逻辑回归(Logistic Regression):
又称为对数回归。当因变量的类型属于二元(1 / 0,真/假,是/否)变量时,我们就应该使用逻辑回归。
3、多项式回归(Polynomial Regression):
对于一个回归方程,如果自变量的指数大于1,那么它就是多项式回归方程。
4、逐步回归(Stepwise Regression):
在处理多个自变量时,我们可以使用这种形式的回归。在这种技术中,自变量的选择是在一个自动的过程中完成的,其中包括非人为操作。这种建模技术的目的是使用最少的预测变量数来最大化预测能力。这也是处理高维数据集的方法之一。
5、岭回归(Ridge Regression):
岭回归分析是一种用于存在多重共线性(自变量高度相关)数据的技术。岭回归通过给回归估计上增加一个偏差度,来降低标准误差。
6、套索回归( Lasso Regression)
它类似于岭回归,Lasso (Least Absolute Shrinkage and Selection Operator)也会惩罚回归系数的绝对值大小。此外,它能够减少变化程度并提高线性回归模型的精度。
1644

被折叠的 条评论
为什么被折叠?



