逻辑回归
用sigmoid函数,把线性回归的结果进行压缩,压缩到0~1之间。
然后,把压缩结果和分类输出y(假设是0和1)对应起来:压缩结果>0.5,y为1;压缩结果<0.5,y为0。
这样就相当于得到了概率函数,有了概率函数,就能写出似然函数。
当然了,为了得到模型的一般形式,必然要引入一些模型参数。
求这些模型参数,就用老办法:
- 写出似然函数
- 把似然函数加负号,转为损失函数
- 梯度下降求参数
PS:
似然函数求极值是求最大值,只能用求导方式求,不好算。
所以加上负号,用梯度下降或牛顿法求(梯度下降是求最小值的)。
Softmax回归
Softmax回归是处理多分类问题的,逻辑回归是处理二分类的。
Softmax回归也是一样的套路,压缩==》得到概率函数==》写出似然函数==》转为损失函数==》梯度下降求参数
本文深入探讨了逻辑回归和Softmax回归的工作原理。逻辑回归通过sigmoid函数将线性回归结果转换为概率,用于二分类问题。Softmax回归则适用于多分类问题,同样采用压缩函数得到概率分布。两者均通过似然函数转化为损失函数,利用梯度下降法求解模型参数。
350

被折叠的 条评论
为什么被折叠?



