逻辑回归的原理
函数输出为0或者1的函数,成为海维赛德阶跃函数,函数在跳跃点从0瞬间到1,跳跃过程很难处理。因此需要另一种函数(具有相似性质)这个函数为Sigmoid函数,公式如下:
当z大于0时,函数h(z)接近1,当z等于0时,函数h(z)为0.5,当z小于0 时,函数h(z)j接近0。
逻辑回归损失函数的推倒和优化
写出一般式为:
极大似然函数为:
对数极大似然函数为
损失函数为:
损失函数表示了预测值和真实值之间的差异程度,预测值和真实值越接近,则损失函数越小。
梯度下降法求解:
理解机器学习:逻辑回归详解

本文深入探讨了逻辑回归的原理,包括Sigmoid函数、损失函数及其优化、正则化(L1和L2)以及评估指标如AUC值。还介绍了sklearn中LogisticRegression的参数设置,并分析了其优缺点。
最低0.47元/天 解锁文章
2万+

被折叠的 条评论
为什么被折叠?



