大家好,我是爱酱。上期我们为初学者梳理了主流回归算法的应用场景与基础思路,这一期我们将面向有一定理论基础和实战经验的朋友,系统剖析主流回归算法的核心原理、优化目标、泛化机制与实际局限。如果你想进一步理解回归模型背后的数学本质与工程权衡,这篇文章值得细读与收藏。
注:本文章含大量数学算式、大量干货,建议先收藏再慢慢观看理解。新频道发展不易,你们的每个赞、收藏跟转发都是我继续分享的动力!
一、线性回归(Linear Regression)
1. 模型假设与目标
线性回归假设输出变量 y 与输入特征 x 之间存在线性关系:
其中 β 为待估参数,ϵ 为高斯白噪声(White Noise)。
2. 最小二乘法与解析解
目标是最小化残差平方和:
解析解为:
3. 泛化能力与局限
-
泛化能力受限于特征的线性可分性,且对共线性和异常值高度敏感。
-
假设检验:可通过t检验、F检验等评估参数显著性和模型整体拟合优度。
-
工程应用:适合特征少、关系明确、解释性要求高的场景。

二、岭回归(Ridge Regression)
1. L2正则化(L2 Regularization)与目标函数
为抑制多重共线性与过拟合,在损失函数中引入L2正则项:

最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



