LR和SVM的比较

LR和SVM都是处理分类问题的算法,常用于线性二分类。它们都可以添加不同正则化项,如L1、L2。LR是参数模型,采用logistical loss,而SVM是非参数模型,使用hinge loss,重点关注support vectors。在大规模线性分类时,LR通常更简单易懂;SVM则在复杂核函数计算时表现优秀。适用性方面,若特征数n远大于样本数m,选择线性LR或SVM;若n较小,m适中,推荐使用带核函数的SVM;若n小,m大,增加特征后用LR或线性SVM。

LR和SVM的比较

联系

1、LR和SVM都可以处理分类问题,且一般都用于处理线性二分类问题(在改进的情况下可以处理多分类问题)
2、两个方法都可以增加不同的正则化项,如l1、l2等等。所以在很多实验中,两种算法的结果是很接近的。

区别

1、LR是参数模型,SVM是非参数模型。
2、从目标函数来看,区别在于逻辑回归采用的是logistical loss,SVM采用的是hinge loss.这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重。
3、SVM的处理方法是只考虑support vectors,也就是和分类最相关的少数点,去学习分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重。
4、逻辑回归相对来说模型更简单,好理解,特别是大规模线性分类时比较方便。而SVM的理解和优化相对来说复杂一些,SVM转化为对偶问题后,分类只需要计算与少数几个支持向量的距离,这个在进行复杂核函数计算时优势很明显,能够大大简化模型和计算。
5、logic 能做的 svm能做,但可能在准确率上有问题,svm能做的logic有的做不了。

其中:
hinge loss 的表达形式:在这里插入图片描述

在这里插入图片描述
hinge loss的解释:
https://www.jianshu.com/p/ae3932eda8f2?from=timeline&isappinstalled=0

两者的适用性

m是样本数,n是特征的数目

LR(逻辑回归)SVM(支持向量机)都是常见的机器学习算法,可以用于特征建模分类任务。在使用LRSVM对特征进行建模并采用五折验证法时,可以按照以下步骤进行: 1. 特征提取:根据问题的需求,从原始数据中提取出适合建模的特征。这可以包括数值特征、文本特征、图像特征等。 2. 特征预处理:对提取出的特征进行预处理,包括缺失值处理、标准化、归一化等。确保特征在相同的尺度上。 3. 数据划分:将数据集划分为训练集测试集。通常采用五折交叉验证,将数据集分成五个子集,每次使用四个子集作为训练集,剩余的一个子集作为测试集。 4. 特征建模:对每个训练集进行LRSVM模型的训练。LR是一种广义线性模型,可以用于二分类或多分类任务;SVM是一种非线性分类器,可以通过选择不同的核函数进行分类。 5. 模型评估:使用训练好的模型对测试集进行预测,并计算预测结果与真实标签之间的准确率、精确率、召回率、F1值等指标。 6. 重复步骤4步骤5,直到每个子集都作为测试集进行了一次。最后,将各次模型评估的指标求平均值,得到最终的模型性能评估结果。 通过以上步骤,可以使用LRSVM对特征进行建模,并采用五折验证法来评估模型的性能。这样可以减小模型对特定数据集的过拟合情况,并提供对模型性能的更准确评估。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值