Logistic回归

概念

  • Logistic回归虽然名字里带“回归”,但是它实际上是一种分类方法,主要用于二分类问题
  • LR分类器适用数据类型:数值型和标称型数据。其优点是计算代价不高,易于理解和实现;其缺点是容易欠拟合,分类精度可能不高。
  • 多维特征的训练数据进行LR时特征值必须做scale,确保特征的取值在相同的尺度内计算才会收敛。

模型

  • 多元线性回归模型:y=θTxy=\theta^Txy=θTx
  • Logistic回归模型:
    在这里插入图片描述
    其中
    在这里插入图片描述
    多元线性模型严重受离群值影响,所以选择阈值变得很难
    Logistic回归模型因为sigmoid函数的引入解决了离群值问题,并且因为将值限定在0-1之间,可以引入概率,进而变成分类问题。

求解

  • 最大似然估计
    hθ(x)h_\theta(x)hθ(x)函数的值表示结果为1的概率,就是特征属于y=1y=1y=1的概率。因此对于输入xxx分类结果为类别1和类别0的概率分别为:
    在这里插入图片描述
    依据公式(1)得到预测正确的概率为:
    在这里插入图片描述
    由于y1,y2,⋅⋅⋅,yny_1,y_2,\cdot\cdot\cdot,y_ny1,y2,,yn各项独立,所以他们的联合分布为:
    在这里插入图片描述
    对上式求对数:
    在这里插入图片描述
    最大似然估计就是求使上式最大的θ\thetaθ
    函数最优化的习惯是函数越小越好,所以在上式前边加上负号,则变成逻辑回归的损失函数,我们称之为交叉熵损失函数
  • 梯度下降法
    在Andrew Ng的课程中,取J(θ)=−l(θ)mJ(\theta)=-\cfrac{l(\theta)}{m}J(θ)=ml(θ)(也可以不除m,相应的结果中去掉m即可),J(θ)J(\theta)J(θ)最小时的θ\thetaθ为要求的最佳参数,通过梯度下降法求最小值,更新过程为:
    在这里插入图片描述
    其中
    在这里插入图片描述
    最终可化简为:
    在这里插入图片描述
    其中iii表示第iii个统计样本,jjj表示第jjj个属性

优化

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值