LR与SVM的联系与区别

本文深入探讨了逻辑回归(LR)与支持向量机(SVM)两种常见分类算法的异同。从模型本质出发,揭示两者在分类任务中的相似之处,包括都是分类算法、有监督学习算法、判别模型及线性模型。同时,详细对比了它们在损失函数、正则化方式、是否需要归一化以及核函数应用上的区别。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


LR与SVM都是机器学习中经常会用到的算法。现在想深入了解每种模型直接的异同,提升自身水平。找到一个博客解释的比较好: 博客:LR与SVM的异同。下面的内容也是跟着这篇博客进行学习的。

一、LR与SVM的相同点

1. LR与SVM都是分类算法

按照label的类型进行判别,如果label是离散的,如0或1,那么就应该是分类算法。如果label是连续的,就应该是回归算法。当然SVM也可以用于回归。

2. LR与SVM都是有监督学习算法

LR与SVM都是监督学习。

3. LR与SVM都是判别模型

简单来讲,就是LR/SVM都是会生成一个判别函数(不关系数据分布,只关心数据间的差别)去分类,而生成模型会计算联合概率(通过联合概率去找到数据的分布),然后根据数据分布去分类。
KNN/LR/SVM是判别模型;
朴素贝叶斯和隐马尔可夫模型是生成模型。

4. LR与SVM都是线性模型

基础版本的LR和SVM都是线性模型,核函数另算。

二、LR与SVM的不同点

1. 损失函数不同

逻辑回归LR的损失函数
支持向量机的目标函数
LR:是基于概率理论和极大似然估计
SVM:是基于几何间隔最大化原理

2. 线性SVM是距离度量,需要normalization

线性SVM是基于几何间隔,所以需要normalization。LR不需要。

3. SVM自带正则化,LR必须额外添加

SVM的目标函数中有个L2正则化项:1/2||w||^2
LR需要在损失函数外,额外添加正则项。

4. SVM有核函数,LR一般不用核函数

三、参考

LR和SVM的异同
LR和SVM的原理:机器学习-周志华,统计学习方法-李航

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值