机器学习1-Logistic回归
机器学习——Logistic回归
机器学习相关概念
机器学习相关概念
有监督学习:有标记。
无监督学习:没有任何标记。
分类学习:例如邮件的分类:发送邮件,接收邮件,垃圾邮件等。
回归学习:一个时间线上的东西,例如体重、年龄等。
模型泛化:训练模型刚开始会给训练集,但是学习完之后,让他用于其他数据集。
过拟合:提高算法准确性,详细体现了数据集各种特征,但是在新数据集效果差。
欠拟合:与过拟合相反。
Logistic回归
机器学习最基本的算法之一,是一种广义的线性回归(generalized linear model),常用于数据挖掘,医学领域和社会学等领域。虽然名字里带“回归”,但是它实际上是一种分类方法,不仅能进行分类,还能获取每个类别的概率预测值。
优点:实现简单,易于理解和实现;计算代价不高,速度很快,存储资源低。
缺点:容易欠拟合,分类精度不高。
常用于两分类问题,所以利用了Logistic函数(或称为Sigmoid函数),函数形式为:
函数图像为:
// An highlighted block
import numpy as np
import matplotlib.pyplot as plt
x = np.arange(-5,5,0.01)
y = 1/(1+np.exp(-x))
plt.plot(x,y)
plt.xlabel(‘z’)
plt.ylabel(‘y’)
plt.grid()
plt.show()
通过上图我们可以发现 Logistic 函数是单调递增函数,并且在z=0
而回归的基本方程,将回归方程写入其中为:所以,
当z≥0 时,y≥0.5,分类为1,当 z<0时,y<0.5,分类为0,其对应的y值我们可以视为类别1的概率预测值。
对于模型的训练而言:实质上来说就是利用数据求解出对应的模型的特定的ω。从而得到一个针对于当前数据的Logistic回归模型。
而对于多分类而言,将多个二分类的逻辑回归组合,即可实现多分类。
[1]: 机器学习算法(一): 基于逻辑回归的分类预测
[2]: 2020.08.20_Task1_基于逻辑斯特模型,实现分类预测
[3]: 逻辑回归LogisticRegression