使用R对共线性检验

本文探讨了高维数据中的共线性问题及其对回归分析的影响,并介绍了Lasso回归作为一种有效解决共线性和变量选择的技术。文章还提供了R语言实现的例子。


    

高维数据常会出现共线性 、变量选择等问题 。如何消除共线性确定最佳模型,是回归分析的一个重点。 传统的最小二乘估计在处理多重共线性问题上 往往有令人不太满意的地方, 主要有两点: 一是 预测准确性,二是模型可解释性。 目前处理严重共线性的常用方法有以下几种: 主成分回归、逐步回归、岭回归等, 这些方法有各自的优缺点 多重共线性的Lasso 方法兼有子集选择和岭估计的优点,同时进行变 量选择与未知参数估计。选择最佳模型的标准有 Cp、AIC、BIC准则,它们也有各自的适用范围。(Mallows Cp 统计量用来作为逐步回归的判停规则,对于一个好的模型,它的Cp统计量非常接近于模型的参数数目)

        Robert Tibshirani (就是R中MASS以及 The Elements of Statistical Learning的作者之一)于 1996 年提出了一种新的变 量选择技术Lasso,即 Least Absolute Shrinkage and Selection Operator 就是翻译过来颇显别扭的套索回归, lasso方法用模型系数的绝对值 函数作为惩罚来压缩模型系数,使一些回归系数变 小,甚至使一些绝对值较小的系数直接变为0 。


本文先从普通回归说起:

R语句如下

library(car)
D=read.csv("/Users/Documents/train_test_model/ridgereg1.csv",sep=",") # 加载数据
a=lm(y~., data=D);summary(a) # 定义模型,summary为输出汇总
vif(a) # 输出模型汇总

得到一下拟合检验参数

Call:
lm(formula = y ~ ., data = D)
Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept) 11.011694   1.718393   6.408 4.94e-06 ***
long         1.692736   0.369589   4.580 0.000232 ***
touwei      -2.158831   0.535513  -4.031 0.000783 ***
weight       0.007472   0.001144   6.531 3.87e-06 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 1.163 on 18 degrees of freedom
Multiple R-squared:  0.9754,	Adjusted R-squared:  0.9713 
F-statistic: 238.1 on 3 and 18 DF,  p-value: 1.14e-14
long
200.013181140721
touwei
209.429825510575
weight
9.68788132590006

通过vif方差膨胀因子可以知道上面三个变量存在严重的共线性,有书中规定超过10就算存在严重共线性同时分析回归系数,婴儿的头围越大,年龄应该越大才对,不应该是负向预测关系,从这里也可以看出一些端倪以上是我们依据数据诊断出多元回归中自变量存在严重共线性,当然在spss中也是可以直接选择,杜宾-瓦特森检验,也是统计分析中常用的一种检验序列一阶自相关最常用的方法。所以不能直接使用常规ols方法。于是请看下面的解决办法。#我们进一步的对检测回归分析的另一个前提--即方差齐性


library(MASS)
install.packages("gvlma") #导入gvlma包
library(gvlma)
gvmodel <- gvlma(a)
summary(gvmodel)


得到如下参数
 
Call:
lm(formula = y ~ ., data = D)
Residuals:
Min       1Q   Median       3Q      Max 
-1.87262 -0.69499 -0.09376  0.74618  2.80676 
Coefficients:
Estimate Std. Error t value Pr(>|t|)    
(Intercept) 11.011694   1.718393   6.408 4.94e-06 ***
long         1.692736   0.369589   4.580 0.000232 ***
touwei      -2.158831   0.535513  -4.031 0.000783 ***
weight       0.007472   0.001144   6.531 3.87e-06 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Call:
gvlma(x = a) 
Value p-value                   Decision
Global Stat        6.6421 0.15605    Assumptions acceptable.
Skewness           0.7794 0.37733    Assumptions acceptable.
Kurtosis           0.1147 0.73484    Assumptions acceptable.
Link Function      1.7108 0.19088    Assumptions acceptable.
Heteroscedasticity 4.0372 0.04451 Assumptions NOT satisfied!


可以得出,异方差性违反,也违反了普通最小二乘建模的前提。如果还是不死心,我们来看看残差分析吧。
#建模试试,看是否存在异常
lm.sol<-lm(y~.,data=D)
summary(lm.sol)
#可视化,残差与预测散点图
plot(fitted(lm.sol), resid(lm.sol),
cex=1.2, pch=21, col="red", bg="orange"
xlab="Fitted Value", ylab="Residuals")


 


    


当描绘的点围绕残差等于0的直线上下随机散布,说明回归直线对原观测值的拟合情况良好。否则,说明回归直线对原观测值的拟合不理想。 在标准化残差图中,大约有95.45%的残差在-2到+2之间 同时,也可以识别异常点,标准化残差小于-3或者大于+3时,就可以判断为异常值。

那么最后大概是可以相信这个模型用最小二乘法是并不合适。


 







### 检测多重共线性的常用方法 在 R 语言中,多重共线性可以通过多种方式进行检测,包括方差膨胀因子(VIF)、特征值和条件数等指标。 #### 方差膨胀因子 (VIF) 方差膨胀因子是衡量多重共线性严重程度的一个重要指标。一般认为,当 VIF 值大于 10 时,表示存在严重的多重共线性问题。可以使用 `car` 包中的 `vif()` 函数来计算模型中各个自变量的 VIF 值。 ```r library(car) model <- lm(y ~ x1 + x2 + x3, data = your_data) vif(model) ``` 该函数将返回每个变量的 VIF 值,用于判断是否存在多重共线性 [^1]。 #### 特征值与条件数 通过分析相关系数矩阵的特征值,可以进一步识别多重共线性问题。如果最小的特征值小于 0.01,则可能表明存在多重共线性。此外,条件数(最大特征值与最小特征值的比值)也被用来评估多重共线性强度。通常认为,条件数大于 30 表示存在严重的多重共线性 [^3]。 ```r X <- data.frame(x1, x2) # 将解释变量放入数据框 R <- cor(X) # 计算相关系数矩阵 lamda <- eigen(R)$values # 提取特征值 CN <- max(lamda) / min(lamda) # 计算条件数 ``` #### 决定系数与复相关系数 决定系数 $R^2$ 和复相关系数也可以用于检测多重共线性。通过构建一个变量对其他变量回归模型,可以得到该变量的 $R^2$,并据此计算方差膨胀因子 $VIF = 1 / (1 - R^2)$ [^3]。 ```r r2 <- summary(lm(x1 ~ x2 + x3, data = your_data))$r.squared VIF <- 1 / (1 - r2) ``` --- ### 多重共线性的解决方法 一旦确认模型中存在多重共线性问题,可以采用以下几种方式加以处理: #### 特征选择 通过移除部分高度相关的变量或选择最具代表性的变量组合,可以有效降低多重共线性的影响。例如,可以根据 VIF 值逐步剔除高共线性变量。 #### 主成分分析 (PCA) 主成分分析是一种降维技术,它能将原始变量转换为一组相互无关的新变量(主成分),从而消除多重共线性。可以使用 `prcomp()` 函数进行 PCA 分析。 ```r pca_result <- prcomp(your_data[, -which(names(your_data) == "y")], scale = TRUE) summary(pca_result) ``` #### 岭回归 (Ridge Regression) 岭回归通过引入正则化项来减少回归系数的方差,从而缓解多重共线性带来的影响。可以使用 `lm.ridge()` 函数进行岭回归建模。 ```r library(MASS) ridge_model <- lm.ridge(y ~ x1 + x2 + x3, data = your_data, lambda = 0.1) ``` --- ### 结论 多重共线性会影响回归模型的稳定性和解释能力。通过使用 VIF、特征值、条件数等指标,可以有效地检测出多重共线性问题,并结合特征选择、主成分分析或岭回归等方法加以解决。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值