【机器学习的一些问题】经典算法之逻辑回归

本文探讨了逻辑回归在分类问题中的应用,对比线性回归,解释了其如何通过极大似然估计和梯度下降求解超参数。进一步介绍了多项逻辑回归在多标签分类中的拓展,适用于每个样本对应一个或多个标签的场景。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

逻辑回归Logistic Regression

 

逻辑回归处理分类问题,线性回归处理回归问题。逻辑回归的因变量取值是一个二元分布,给定自变量和超参数后,得到因变量的期望,并根据该期望处理预测分类问题。

逻辑回归和线性回归的最大区别在于:逻辑回归的自变量是离散的,而线性回归的自变量是连续的。

逻辑回归和线性回归的相同之处:使用极大似然估计对训练样本建模,使用梯度下降方法求解超参数。

 

多项逻辑回归Softmax Regression是二分类逻辑回归在多标签分类下的一种拓展。每个样本对应一个标签,每个样本对应多个标签,都可以使用多项逻辑回归来处理多标签分类问题

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值