岭回归一般可以用来解决线性回归模型系数无解的两种情况。 一方面是自变量间存在高度多重共线性,另一方面则是自变量个数大于等于观测个数。 即在X’X的基础上加上一个较小的lambda扰动
-
cv::Mat RidgeRegression(cv::Mat D, cv::Mat Y) -
{-
float lamda = 0.01; -
cv::Mat tranD = D.t(); -
cv::Mat I = cv::Mat::eye(D.cols,D.cols,CV_32F); -
cv::Mat tmp = tranD*D+lamda*I; -
cv::Mat invtmp = tmp.inv(DECOMP_SVD); -
cv::Mat W = invtmp * tranD* Y; -
return W;
-
-
}
-
def ridgeRegres(xMat,yMat,lam=0.2):-
xTx = xMat.T*xMat -
denom = xTx + np.eye(np.shape(xMat)[1])*lam -
if np.linalg.det(denom) == 0.0:-
print("This matrix is singular, cannot do inverse") -
return
-
-
ws = denom.I * (xMat.T*yMat) -
return ws
-
岭回归解决线性回归问题
本文介绍如何使用岭回归解决线性回归中因自变量间高度多重共线性及自变量数量过多导致的系数无解问题。通过在X'X基础上添加小扰动λ来确保矩阵可逆,并给出了具体的实现代码。
&spm=1001.2101.3001.5002&articleId=81169826&d=1&t=3&u=6ede4891604546b8ae15fa035cd279cb)
2222

被折叠的 条评论
为什么被折叠?



