逻辑回归的感悟

本文深入解析了分类与回归两种机器学习任务的区别,重点阐述了逻辑回归与线性回归的工作原理及应用场合,同时介绍了softmax函数在多分类问题中的运用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

关于分类和回归的区别就是一个是离散一个是连续。
另外逻辑回归(可以看出来就是为了分类)和线性回归的区别:softmax函数的目的就是输出0~1之间的预测(比如输出使用了在这里插入图片描述),
就是所谓的做逻辑回归,其loss是交叉熵(可以说专门用于逻辑回归)的变种(信息熵还是什么的,就是忽略错误的估计项,自己去复习)。线性回归是没有范围的,如y=wx+b是输出任意值,所以其损失函数也一般是用最小二分法,用于做线性回归预测(比如boundingbox的坐标等预测)。

softmax思想如下
采用 Logistic Regression进行多分类的思路是:选取某个分类作为正样本,其他分类作为负样本建立一个二分类模型;以此类推建立多个(有几个分类就建几个)二分类模型;对多个二分类模型的输出值进行大小比较,把样例归为输出值最大的那类

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值