一、线性回归(Linear Regression)、逻辑回归(Logistic Regression)推导
1、线性回归(Linear Regression)原理及手工实现_解析解法、梯度下降法求解最优解
2、逻辑回归(Logistic Regression)原理
二、联系
逻辑回归的本质其实就是线性回归,但在最终预测的时候加了一层sigmoid函数。
即:线性回归+sigmoid函数=逻辑回归
三、区别
ps:LR好像更多的时候是逻辑回归(Logistic Regression)的缩写。
1、功能不同
线性回归:做预测、拟合函数。用于回归任务,例如用来拟合一条直线。
逻辑回归:做分类、预测函数。用于分类任务,二分类/多分类,是给定自变量和超参数后,得到因变量的期望,基于这个期望来处理预测分类问题。
2、计算参数方式
线性回归:使用最小二乘法求得解析解、梯度下降法。“基于均方误差(mean-square error, MSE)最小化来进行模型求解的方法称为“最小二乘法””–《机器学习》周志华
逻辑回归:最大似然估计、梯度下降法。
3、异常值
线性回归:容易受到异常值的影响。
逻辑回归:对异常值有较好的稳定性。
本文详细介绍了线性回归和逻辑回归的原理,包括线性回归的手工实现及梯度下降法求解,以及逻辑回归如何通过sigmoid函数进行分类。两者之间的联系在于逻辑回归在预测时应用了线性回归的结果并加上sigmoid转换。它们的主要区别在于功能和应用场景,线性回归用于回归任务,而逻辑回归则适用于分类问题。此外,逻辑回归在处理异常值时表现出更好的稳定性。
1万+

被折叠的 条评论
为什么被折叠?



