机器学习实战——Logistic回归

本文深入探讨了Logistic回归,包括其分类原理、sigmoid函数、极大似然法以及通过梯度上升法优化回归系数的过程。通过实例展示了如何使用Logistic回归预测病马的死亡率,并对比了梯度上升法与随机梯度上升法的优缺点。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

一.Logicstic回归的一般过程

1.logicstic:

2.sigmoid函数

2.1:Logicstic回归:分类问题

 2.2 Logicstic回归:极大似然法

二.基于最优化方法的最佳回归系数确定

2.1.梯度上升法

 2.1.1Logicstic回归梯度上升优化算法:

2.1.2 分析数据:画出决策边界

 2.1.3 训练算法: 随机梯度上升

 2.1.4 改进的随机梯度上升算法

三.实例:从疝气病症预测病马的死亡率

四.总结


一.Logicstic回归的一般过程

(1)收集数据;(2)准备数据;(3)分析数据;(4)训练算法;(5)测试算法;(6)使用算法;

Logicstic回归分类主要思想:根据现有数据对分类边界线建立回归公式,以此分类。

这里的“回归”表示要找到最佳拟合参数集,训练分类器时的做法就是寻找最佳拟合参数,使用的是最优化算法。

1.logicstic:

优点:计算代价不高,易于理解和实现

缺点:容易欠拟合,分类精度可能不高

适用数据类型:数值型和标称型数据

2.sigmoid函数

Sigmoid函数是一种阶跃函数( step function )。在数学中,如果实数域上的某个函数可以用半开区间上的指示函数的有限次线性组合来表示,那么这个函数就是阶跃函数。而数学中指示函数(indicator function)是定义在某集合X上的函数,表示其中有哪些元素属于某一子集A。
具体计算公式为:
å¨è¿éæå¥å¾çæè¿°

为了实现Logistic回归分类器,我们在每个特征上都乘以一个回归系数,然后把所有的结果值相加,将这个总和代人Sigmoid函数中,进而得到一个范围在0~1之间的数值。任何大于0.5的数据被分入1类,小于0.5即被归入0类。所以,Logistic回归也可以被看成是一种概率估计。 

2.1:Logicstic回归:分类问题

线性模型可以衍生出一般形式:
g (∙) 称为联系函数(link function),该函数一般为单调可微函数

 对数线性回归是 g(∙)=ln(∙) 时广义/多维线性模型的特例。𝑙ny= wx + b

Sigmoid函数的输出记为z,公式为:

逻辑回归是拟合“ y sigmoid 函数”

 运用Sigmoid函数:

对数几率(log odds) : 样本作为正例的相对可能性的对数

 2.2 Logicstic回归:极大似然法<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值