逻辑回归以及源码分享

本文详细介绍了逻辑回归,它是一个用于分类问题的算法,而非回归。讨论了logistic函数及其推导,并通过乳腺癌分类案例进行实践。同时,文章还探讨了Softmax回归,它是logistic回归的多分类扩展,以及其损失函数和梯度下降法求解。总结中指出,线性模型如Logistic和Softmax常用于分类问题,而梯度下降是参数优化的关键方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

逻辑回归

Logistic回归虽然是一个回归算法,但是不是解决回归问题的算法,而是解决分类问题的算法

logistic函数如下

在这里插入图片描述
对上述公式进行求导:公式比较简单,可以照着推一边就行
在这里插入图片描述
如下图示:Logistic算法是一个分类问题,所以y的取值主要就是1和0,这样的话,其实Logistic回归样本数据符合二项分布,所以能够得到概率方程
在这里插入图片描述
其推到如下
在这里插入图片描述
:字写不好,接下来的推导,用wps数学工具写了:

在这里插入图片描述
由于在极大似然估计中,当似然函数最大的时候模型最优;而在机器学习领域中,目标函数最小的时候,模型最优;故可以使用似然函数乘以-1的结果作为目标函数
在这里插入图片描述
Logistic回归θ参数的求解过程为(类似梯度下降方法): 回顾前面讲的内容
在这里插入图片描述

Softmax回归

softmax回归是logistic回归的一般化,适用于K分类的问题,针对于每个类别都有一个参数向量θ,第k类的参数为向量θk,组成的二维矩阵为θk*n;
softmax函数的本质就是将一个K维的任意实数向量压缩(映射)成另一个K维的实数向量,其中向量中的每个元素取值都介于(0,1)之间。
softmax回归概率函数为:
在这里插入图片描述
Softmax算法原理:
在这里插入图片描述
Softmax算法损失函数
在这里插入图片描述
Softmax算法梯度下降法求解
在这里插入图片描述
在这里插入图片描述

Logistic案例:乳腺癌分类

数据来源:data

import numpy as np
import matplotlib as mpl
import matplotlib.pyplot as plt
import pandas as pd
import warnings
import sklearn
from sklearn.linear_model import LogisticRegressionCV,LinearRegression
from sklearn.linear_model.coordinate_descent import ConvergenceWarning
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
## 设置字符集,防止中文乱码
mpl
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值