与线性回归用于预测连续值不同,逻辑归回用于分类,原理与线性回归类似,定义损失函数,然后最小化损失,得到参数既模型,只不过损失的定义不同。
逻辑回归的假设如图1所示,可以理解为线性回归外面套了一层sigmoid函数g(z),sigmoid函数图像如图2所示,该函数有很好的数学性质,其导数= g(z)*(1- g(z)),导数计算量小,当z=0时,其函数值为0.5,z越大,函数值越接近于1,z越小,函数值越接近于0。
图1 逻辑回归假设
图 2 sigmoid函数图像
Logistic regression的损失函数定义如图3所示,采用交叉熵损失函数,如何理解交叉熵损失函数在之前的博文

本文介绍了逻辑回归的基本原理,包括它与线性回归的区别,以及为什么使用sigmoid函数。重点讨论了逻辑回归的损失函数——交叉熵损失,并解释了为什么避免使用线性回归的损失函数,因为它可能导致局部最优。通过图示展示了损失函数的梯度以及正则化对防止过拟合的作用。最后,给出了Python代码实现,并比较了使用内置优化函数和手动批量梯度下降的决策边界,讨论了正则化参数对模型拟合程度的影响。
最低0.47元/天 解锁文章
4万+

被折叠的 条评论
为什么被折叠?



