机器学习--分类算法--Logistc回归算法理论

本文详细介绍了Logistic回归算法,包括其与线性回归的区别,如Logistic回归用于分类,采用sigmoid函数。文章还阐述了Logistic回归的基本前提,即目标属性为二分类,服从伯努利分布,并通过sigmoid函数转换。最后,概述了模型的构建流程,涉及对数似然函数、损失函数和优化方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

一 Logistc回归算法概述

1 Logistic回归与线性回归的联系与区别

1)区别

2)相同

2 sigmoid函数(odd思想:即一个事件发生概率与不发生概率的比值比)

二 Logistc回归算法原理

1 模型前提

1)假定数据集中目标属性为二分类(y=1或者y=0)

2)目标属性的分布律为伯努利分布

2 模型流程


一 Logistc回归算法概述

1 Logistic回归与线性回归的联系与区别

1)区别

  • Logistic回归处理分类问题,决策函数为sigmoid函数
  • 线性回归处理回归问题,决策函数为线性函数

2)相同

  • 是有监督学习,采用极大似然估计函数建模,使用梯度下降方法求解

2 sigmoid函数(odd思想:即一个事件发生概率与不发生概率的比值比

logit函数

logit:log\frac{p}{1-p}=\theta^{T}x

\Rightarrow log\frac{p}{1-p}=\theta^{T}x\Rightarrow \frac{p}{1-p}=e^{\theta^{T}x}\Rightarrow p=(1-p)e^{\theta^{T}x}\Rightarrow p(1+e^{\theta^{T}x})=1

\Rightarrow p = \frac{1}{1+e^{\theta^{T}x}}

sigmoid函数

sigmoid:g(x)=\frac{1}{1+e^{-x}}\Leftarrow \left\{\begin{matrix} x\subset (-\infty ,+\infty )\\ g(x)\subset (0,1) \\ {g}'(x)=g(x)(1-g(x)) \end{matrix}\right.

二 Logistc回归算法原理

1 模型前提

1)假定数据集中目标属性为二分类

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值