机器学习:LR和SVM对比

本文深入探讨了逻辑回归(LR)与支持向量机(SVM)两种机器学习算法的区别,包括它们的损失函数、分类原理、对数据预处理的要求、对异常值的敏感度及正则化特性。指出SVM依赖于数据的距离表达,需进行数据标准化;而LR基于分类概率,需处理数据不平衡问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

LR:logistics regression
SVM:support vector machine

不同:

  • 损失函数不同

LR,交叉熵损失函数,也有叫log损失
J(theta) = - 1/m [ sum y* log{ h(x) } + (1 - y) * log{ 1 - h(x) } ]

SVM,hinge loss
[Z]+ = { z, z > 0 ; 0, z <= 0 }
L(w, b ,a) = 1/2*||W||^2 - sum{ a*(y*(wt*x + b) - 1 ) }

不同的loss function代表了不同的假设前提
代表不同分类原理

  • SVM最后分界线只受支持向量上样本影响,逻辑回归分界线受所有样本影响(所以,逻辑回归在做不平衡数据时,要先对数据做平衡)

  • LR基于分类概率,SVM基于分类距离
    (SVM依赖数据表达的距离,所以要对数据做标准化(normalization);LR要做平衡)

    归一化优点在于,加快收敛速度(模型太扁不利于梯度下降),提升模型精度
    (归一化是否对模型影响,要看模型是否有伸缩不变性)
    伸缩不变性:各个维度进行不均匀伸缩后,最优解与原来不等价,则不具有伸缩不变形,例如SVM。
    对于SVM,若不归一化,不同的维度带有不同的量纲,同样加10所代表的意义不一样,且会影响梯度下降。

  • SVM自带正则化,LR需要正则化

  • LR对异常值敏感,SVM对异常值不敏感

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值