【机器学习】LR回归(逻辑回归)和softmax回归

本文详细介绍了LR(逻辑回归)和Softmax回归的概念及其区别。LR主要处理二分类问题,通过Sigmoid函数将线性回归转换为(0,1)区间,适合概率预测。文章讨论了Logistic回归的函数形式、损失函数、梯度下降法以及防止过拟合的方法。同时,文章介绍了Softmax回归在多分类问题中的应用,包括代价函数、模型参数化特点、权重衰减,并探讨了它与Logistic回归的关系以及何时选择Softmax回归或多个二元分类器。" 77969307,6899395,网络安全扫描技术:TCP & UDP ACK 扫描解析,"['安全', '信息安全', '网络安全', '扫描技术', 'TCP', 'UDP']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. LR回归

Logistic回归(Logistic Regression,简称LR)是一种常用的处理二类分类问题的模型

在二分类问题中,把因变量y可能属于的两个类分别称为负类和正类,则因变量y∈{0, 1},其中0表示负类,1表示正类。线性回归
在这里插入图片描述
的输出值在负无穷到正无穷的范围上,不太好解决这个问题。于是我们引入非线性变换,把线性回归的输出值压缩到(0, 1)之间,那就成了Logistic回归
在这里插入图片描述
使得h(x)≥0.5时,预测y=1,而当h(x)<0.5时,预测y=0。Logistic回归的名字中尽管带有回归二字,可是它是实打实的分类算法。

那用什么非线性变换把线性回归转化成Logistic回归呢?


Logistic回归的函数形式

Logistic回归模型的函数形式为:
在这里插入图片描述
其中x代表样本的特征向量,g(z)代表sigmoid函数,公式为
在这里插入图片描述
下图为sigmoid函数的图形。
在这里插入图片描述
此外非常重要的,sigmoid函数求导后为:
在这里插入图片描述

所以Logistic回归模型就是:
在这里插入图片描述
对于给定的输入变量,根据选择的参数确定输出变量y=1的概率,即后验概率在这里插入图片描述
在这里插入图片描述


Logistic回归的损失函数

Logistic回归中的参数是θ,怎么估计这个参数呢?那么就要定义损失函数,通过最小化损失函数来求解参数。

线性回归中的损失函数是平方误差损失函数,如果Logistic回归也采用这种损失函数形式,那么得到的损失函数将是一个非凸函数。这意味着损失函数会有很多局部极小值,因此不容易找到全局最小值。比如左边这个就是非凸函数的形状,明显右边这个平滑的图不容易陷入局部极小值陷阱。
在这里插入图片描述
假设训练数据集为{(x1,y1),(x2,y2),…(xm, ym)},即有m个样本,令x=[x0, x1, …, xn]T,x0=1,即每个样本有n个特征,y∈{0, 1}。于是把Logistic回归的损失函数定义为对数损失函数:
在这里插入图片描述
这个对数损失函数的特点是:当类别y=1时,损失随着h(x

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值