笔记-logistic回归算法

博客介绍了监督学习中进行二元分类的常用算法。希望输入自变量x输出二元分类结果,通过神经网络搭建logistic数学模型,对输入进行概率预测。在构建过程中处理输入矩阵、添加偏差矫正参数,还利用sigmoid限幅函数使输出满足统计要求。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

算法特性:在监督学习中进行二元分类的常用算法

算法详解:

我们希望输入一个自变量x,通过算法输出二元分类的结果y\in \left \{ 0, 1\right \}。那么应该如何来构造这样一个数学模型呢?

事实上我们更希望这个数学模型可以实现这样一个过程:输入一个待分类的自变量(可以是一张图片、一段音频或其他),如何输出的是一个概率,表示数学模型对输入的概率预测。这样的话我们就可以通过神经网络模型来搭建我们的logistic数学模型了。

我们可以将x统一处理为一个n_{x}*1维的矩阵,即x\in \mathbb{R}^{n_{x}*1},同时设定一个参数矩阵\omega \in \mathbb{R}^{n_{x}*1},这样模型就可以定义为:

\hat{y} = \omega^{T}*x,但是稍加思索,我们发现此时的模型在训练中容易产生系统偏差,故此考虑加上偏差矫正参数b,即:\hat{y} = \omega^{T}*x + b,但是此时的输出\hat{y}并不总是在区间\left [ 0,1 \right ]中,不满足统计要求。故此我们需要利用一个限幅函数:sigmoid(),来使得\hat{y}\in \left [ 0,1 \right ],图形如下:

故最后logistic模型为:\hat{y} = \sigma (\omega ^{T}*x + b)        \omega ,x\in \mathbb{R}^{n_{x}*1};\hat{y}\in \left [ 0,1 \right ]

其中\sigma (z)=\frac{1}{1+e^{-z}}

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值