一、logisitic分类原理
看了斯坦福的课程,外加几篇博客
http://blog.youkuaiyun.com/wenyusuran/article/details/25824011
http://blog.youkuaiyun.com/lujiandong1/article/details/42638965
http://www.cnblogs.com/daniel-D/archive/2013/05/30/3109276.html
总结笔记为以下内容
1.数学模型------logistic函数
2.物理含义及相关推导
1)给出特征向量x,对其所属分类y进行预测,y=0,1(二分类问题)
x共有m个分量,即共有m个特征,每个特征对应的权重(即回归系数)为
构造预测函数:
为了使似然性最大,使用梯度上升法:
梯度上升算法的伪代码如下:
################################################
初始化回归系数为1
重复下面步骤直到收敛{
计算整个数据集的梯度
使用alpha x gradient来更新回归系数
}
返回回归系数值
################################################
logistic回归就是一个被logistic方程归一化后的线性回归
3.优化
1)每次迭代都要计算整个数据集
改进------随机梯度上升法
################################################
初始化回归系数为1
重复下面步骤直到收敛{
对随机遍历的数据集中的每个样本
随着迭代的逐渐进行,减小alpha的值
计算该样本的梯度
使用alpha x gradient来更新回归系数
}
返回回归系数值
################################################
2)过拟合问题----正则化
3.logistic的推广------Softmax regression(多分类)
http://deeplearning.stanford.edu/wiki/index.php/Softmax回归