Linear SVM 与 LR 的相同点:
1.都是线性模型,都是分类算法,都是判别模型
Linear SVM 与 LR 的不同点:
1.本质上两者的区别在于loss function的不同,不同的loss function 代表了不同的假设前提
例如 LR 的loss function 是 对数损失,LR基于概率理论,对可能性进行建模,
SVM的loss function 是hinge loss,是基于间隔最大化
2.SVM只考虑局部边界线的点(support vector),而LR考虑全局(所以如果有异常点,对LR的影响会大一些)
3.SVM依赖数据表达的距离测度,需要对数据进行归一化处理,而LR不用
4.SVM的loss function自带L2正则项,而LR需要额外添加正则项,所以说SVM是结构风险最小化
本文探讨了LinearSVM和支持向量机(SVM)与逻辑回归(LR)之间的相似之处及差异,包括它们的loss function选择、对异常点的敏感度、数据预处理需求以及正则化方式的不同。

6万+

被折叠的 条评论
为什么被折叠?



