惩罚逻辑回归:原理、应用与比较
1. 引言
在机器学习的分类问题中,逻辑回归是一种常用的方法。然而,为了使模型在处理未见数据时具有更好的泛化能力,常常需要对逻辑回归进行正则化处理。本文将介绍惩罚逻辑回归的相关内容,包括基于对数似然和基于秩的方法的正则化,以及支持向量机(SVM)与逻辑回归的联系,并通过具体的圆形数据示例进行分析。
2. 惩罚逻辑回归方法
2.1 对数似然表达式
2.1.1 岭回归(Ridge)
岭回归可应用于对数似然逻辑回归,其目标函数为:
[
J_{LLR - ridge}(\beta) = - \sum_{i = 1}^{n} [y_i \log p_i + (1 - y_i) \log(1 - p_i)] + \lambda_2 \beta^T \beta
]
其中,(\lambda_2 > 0) 是正则化参数。通过最小化该目标函数得到惩罚估计 (\hat{\beta}_{LLR - ridge}^n)。使用梯度下降法进行优化,参数更新方程为:
[
\beta^{(t + 1)} = \beta^{(t)} - \ell \times [X^T(p(X) - y) + 2\lambda_2 \beta^{(t)}]
]
或等价地:
[
\beta^{(t + 1)} = \beta^{(t)}(1 - 2\ell\lambda_2) - \ell \times [X^T(p(X) - y)]
]
其中,(\ell) 是学习率,控制每次迭代的步长。
超级会员免费看
订阅专栏 解锁全文
1025

被折叠的 条评论
为什么被折叠?



