逻辑斯蒂回归首先研究的是分类问题,所以我们这里引入的激励函数是sigmoid函数,所以逻辑斯蒂回归也叫sigmoid回归。当然也叫对数几率回归。
逻辑斯蒂回归是直接对数据的分类的可能性进行建模,而不是假设数据的分布,这就避免了假设数据分布时不均匀所带来的问题,所以逻辑斯蒂回归不但可以预测类别,还可以得出该类别的概率。
但逻辑斯蒂回归和线性回归的不同点在于:线性回归使用梯度下降法得到cost function 的最小值以及相关参数的值,而逻辑斯蒂回归会使用梯度上升法得到cost function的最大值(因为这里要求出属于某一类的几率,所以求得值越大,就越准确)
**
对数几率:log[p/(1-p)]:
假设某件事情发生的概率为p,不发生的概率为1-p,我们称这件事件发生的几率为p/(1-p),取这件事发生的几率的对数定义为logit§,因为logit函数的输入取值范围[0,1],所以可以通过logit函数将输入区间【0,1】转换到整个实数范围内的输出(参考log函数的图可以得出log函数的取值范围为整个实数范围)