1.岭回归
Ridge 回归通过对系数的大小施加惩罚来解决 普通最小二乘法 的一些问题。 岭系数最小化的是带罚项的残差平方和,

其中,
是控制系数收缩量的复杂性参数:
的值越大,收缩量越大,这样系数对共线性的鲁棒性也更强
较大的
值则具有更强的正则化。 Alpha对应于其他线性模型中的C ^ -1,例如LogisticRegression或LinearSVC。
2.lasso回归
Lasso 是估计稀疏系数的线性模型。 它在一些情况下是有用的,因为它倾向于使用具有较少参数值的情况,有效地减少给定解决方案所依赖变量的数量。 因此,Lasso 及其变体是压缩感知领域的基础。
在数学公式表达上,它由一个带有
先验的正则项的线性模型组成。 其最小化的目标函数是:

lasso estimate 解决了加上罚项
的最小二乘法的最小化,其中,

本文探讨了sklearn中不同模型如岭回归、lasso回归、随机森林等的正则化参数C和alpha的作用。C在支持向量机中控制错误项的惩罚力度,而alpha在岭回归和lasso回归中调节系数收缩程度,影响模型的复杂性和过拟合程度。对于其他如随机森林、KNN等模型,它们没有直接的C或alpha参数,但也有类似机制调整模型复杂性。
最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



