机器学习1-Logistic回归

本文介绍了Logistic回归,一种广泛应用于数据挖掘、医学和社会学的分类算法。Logistic回归是机器学习中的基本算法,尽管名字含有“回归”,但主要用于分类,尤其适合两分类问题。Logistic函数的特性使得它能输出类别1的概率预测值。文章还讨论了其优缺点,如计算效率高但可能欠拟合,以及如何通过组合多个二分类逻辑回归解决多分类问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器学习——Logistic回归

机器学习相关概念

机器学习相关概念
有监督学习:有标记。
无监督学习:没有任何标记。

分类学习:例如邮件的分类:发送邮件,接收邮件,垃圾邮件等。
回归学习:一个时间线上的东西,例如体重、年龄等。

模型泛化:训练模型刚开始会给训练集,但是学习完之后,让他用于其他数据集。

过拟合:提高算法准确性,详细体现了数据集各种特征,但是在新数据集效果差。
欠拟合:与过拟合相反。

Logistic回归

机器学习最基本的算法之一,是一种广义的线性回归(generalized linear model),常用于数据挖掘,医学领域和社会学等领域。虽然名字里带“回归”,但是它实际上是一种分类方法,不仅能进行分类,还能获取每个类别的概率预测值。
优点:实现简单,易于理解和实现;计算代价不高,速度很快,存储资源低。
缺点:容易欠拟合,分类精度不高。
常用于两分类问题,所以利用了Logistic函数(或称为Sigmoid函数),函数形式为:
sigmod公式函数图像为:

// An highlighted block
import numpy as np
import matplotlib.pyplot as plt
x = np.arange(-5,5,0.01)
y = 1/(1+np.exp(-x))

plt.plot(x,y)
plt.xlabel(‘z’)
plt.ylabel(‘y’)
plt.grid()
plt.show()

在这里插入图片描述通过上图我们可以发现 Logistic 函数是单调递增函数,并且在z=0
而回归的基本方程,将回归方程写入其中为:在这里插入图片描述所以,在这里插入图片描述当z≥0 时,y≥0.5,分类为1,当 z<0时,y<0.5,分类为0,其对应的y值我们可以视为类别1的概率预测值。
对于模型的训练而言:实质上来说就是利用数据求解出对应的模型的特定的ω。从而得到一个针对于当前数据的Logistic回归模型。
而对于多分类而言,将多个二分类的逻辑回归组合,即可实现多分类。

[1]: 机器学习算法(一): 基于逻辑回归的分类预测
[2]: 2020.08.20_Task1_基于逻辑斯特模型,实现分类预测
[3]: 逻辑回归LogisticRegression

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值