1、logist:应用于二分类
1、与一般回归的区别在于,逻辑斯蒂变换能解决一般回归模型遇到的如下困难:
1.模型的预测概率可能落在[0,1]区间之外,logist中>=0.5取1正例,<0.5取0负例,;
2.独立变量不是正态分布的;
3.因变量的方差是不一致的.
2、logist回归引入sigmod函数(阶越函数)作为模型函数,使目标值在0,1范围内
3、引入对数似然函数作为损失函数,求的极值
softmax:多分类
本文探讨了Logistic回归的应用及其与传统回归的区别,包括通过Sigmoid函数约束预测值范围,解决预测概率超出有效范围的问题,以及使用对数似然函数作为损失函数。此外,还介绍了Softmax函数在多分类任务中的应用。
1、logist:应用于二分类
1、与一般回归的区别在于,逻辑斯蒂变换能解决一般回归模型遇到的如下困难:
1.模型的预测概率可能落在[0,1]区间之外,logist中>=0.5取1正例,<0.5取0负例,;
2.独立变量不是正态分布的;
3.因变量的方差是不一致的.
2、logist回归引入sigmod函数(阶越函数)作为模型函数,使目标值在0,1范围内
3、引入对数似然函数作为损失函数,求的极值
softmax:多分类
1806
3694

被折叠的 条评论
为什么被折叠?