机器学习分类模型:逻辑回归与朴素贝叶斯
1. 逻辑回归(Logistic Regression)
逻辑回归(LogR)通常用于分类目的,它与线性回归(LR)不同,逻辑回归的因变量只能取有限个值,而线性回归中因变量取值是无限的。这是因为逻辑回归的因变量使用类别表示,当只有两个类别时,就成为二元逻辑回归。
在LR中,输出是输入的加权和。而LogR是LR的推广,输入的加权和并不直接输出,而是通过一个函数将任何实输入值映射到0到1之间的输出。在LR里,输出可以取任何值,但对于LogR,值必须在0到1之间。这个映射加权输入和的函数称为Sigmoid函数,也被称为激活函数。
Sigmoid函数的输出值(y)始终在0到1之间,当x = 0时,y = 0.5。在二元分类情况下,如果y >= 0.5,则判定为类别1;否则为类别0。
在应用逻辑回归之前,需要满足两个基本假设:
- 因变量必须是分类变量。
- 自变量(特征)必须相互独立。
我们使用一个关于大学录取的数据集,该数据集包含100条记录,每条记录有两个考试成绩(范围从0到100),以及一个表示是否被录取的标签(1表示被录取,0表示未被录取)。目标是根据这两个考试成绩预测申请人是否会被录取。原始数据来自一个名为 marks.txt 的CSV文件,可从 这里 获取。
以下是用于加载数据并可视化原始数据集的P
超级会员免费看
订阅专栏 解锁全文
7215

被折叠的 条评论
为什么被折叠?



