学习笔记(二):逻辑斯蒂回归算法(Logistic Regression)

本文详细介绍了逻辑斯蒂回归(Logistic Regression)的定义、损失函数和梯度上升法。通过一个婚恋网站推荐系统的案例,展示了如何使用Python实现逻辑回归算法,并进行数据预处理和模型训练。案例中,数据包含飞行常客里程数、视频游戏时间百分比和冰淇淋消费量三个特征,用于区分不喜欢、魅力一般和极具魅力的人。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、算法简介

代码下载:https://download.youkuaiyun.com/download/xdg2008/16744956?spm=1001.2014.3001.5503

1.1 定义

逻辑斯蒂回归(Logistic Regression) 虽然名字中有回归,但模型最初是为了解决二分类问题,后来可以解决多分类问题。

线性回归模型帮助我们用最简单的线性方程实现了对数据的拟合,但只实现了回归而无法进行分类。因此LR就是在线性回归的基础上,构造的一种分类模型。

对线性模型进行分类如二分类任务,简单的是通过阶跃函数(unit-step function),即将线性模型的输出值套上一个函数进行分割,大于z的判定为0,小于z的判定为1。

但这样的分段函数数学性质不好,既不连续也不可微。因此有人提出了对数几率函数,见上图右,简称Sigmoid函数。

该函数具有很好的数学性质,既可以用于预测类别,并且任意阶可微,因此可用于求解最优解。将函数带进去,可得LR模型为

其实,LR 模型就是在拟合 z = w^T x +b 这条直线,使得这条直线尽可能地将原始数据中的两个类别正确的划分开

1.2 损失函数表达式

    回归问题的损失函数一般为平均误差平方损失 MSE,LR解决二分类问题中,损失函数为如下形式

    L=∑ylogy+(1-y)log(1-y)

   

1.3梯度下降

     得到了逻辑回归的表达式,下一步跟线性回归类似&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值