LR与SVM 简单应用

LR与svm 简单应用

  1. 算法定义
  2. 基本实践

算法定义

LR算法

逻辑回归
logistic回归是一个分类算法,是一种广义的线性回归分析模型,它常用处理处理二元分类以及多元分类问题

逻辑回归问题的起点:

线性回归模型是表征了输出向量Y和输入样本矩阵x之间的线性关系,其线性关系的参数为θ,此时模型的预测是的值域为(-∞,+∞),并且我假设y 是连续的。如果最终我们需要y 的结果是一个有限集的,比如是一个简单的分类问题,那么我们需要一个函数转换,使得y 值可以映射在一个有限的区间上。 比如以二分类问题为例:

推理过程

我们引入转换函数sigmoid,如下图所示:
在这里插入图片描述
将函数的输入范围(∞,-∞)映射到了输出的(0,1)之间且具有概率意义.具有概率意义是怎么理解呢:将一个样本输入到我们学习到的函数中,输出0.7,意思就是这个样本有70%的概率是正例,1-70%就是30%的概率为负例.。
则真个函数就变换为:
在这里插入图片描述
接下来就是如何构造损失函数的问题:

  • 从似然函数的角度去构建
  • 类似感知机模型,从损失判断去度量,如下:
    如下图所示:如果y=1时, 即p>0.5, 这个时候概率p越小, 被错分为y=0的几率越大,损失函数便会越大。与之对应,如果y=0时, 即p<0.5, 这个时候概率p越大, 被错分为y=1的几率越大,损失函数便会越大。因此我们想到了下面的log函数。
    在这里插入图片描述
    则整个解析式loss 函数可写为:
    在这里插入图片描述
    最终的loss 函数为:
    在这里插入图片描述
    然后求导,得优化解:
    在这里插入图片描述

    SVM 算法

    问题引入
    如下,在线性分类中,平面上有两类数据,我们可以找到多条直线将两类数据分开,但是,那个才是最好的呢?
    在这里插入图片描述
    我们可以看出,假设存在一条直线是最优划分,则必然满足:
    1、能够正确划分训练数据集
    2、并且几何间隔最大的分离超平面
    其数学公式表示为:
    在这里插入图片描述
    可化简为:
    在这里插入图片描述
    对上述函数的求解可转化为,拉格朗日条件极值问题,构建函数如下:
    在这里插入图片描述
    根据原问题的对偶性和约束条件我们可解得:
    在这里插入图片描述
    在这里插入图片描述
    具体过程,手动求解

代码实践

tfdif=TfidfVectorizer()
train_data_feature=tfdif.fit_transform(train_data['word_seg'])
print(train_data_feature)
x_train,x_validation,y_train,y_validation=train_test_split(train_data_feature,y,test_size=0.3,random_state=2019)
print(x_train.shape)
print(x_validation.shape)
from sklearn.linear_model import LogisticRegression
from sklearn.svm import  LinearSVC
from sklearn.metrics import accuracy_score,precision_score,f1_score

logis=LogisticRegression(C=1,dual=True)
logis.fit(x_train,y_train)
y_pre=logis.predict(x_validation)

f1=f1_score(y_validation,y_pre,average='micro')
print("the f1 score: %.2f"%f1)


svm=LinearSVC(C=1,dual=True)
svm.fit(x_train,y_train)
y_pre=svm.predict(x_validation)
f1=f1_score(y_validation,y_pre,average='micro')
print("the f1 score: %.2f"%f1)

最终结果:
在这里插入图片描述
参考:
[1] https://blog.youkuaiyun.com/zhangyunpeng0922/article/details/85125438
[2] https://blog.youkuaiyun.com/weixin_39445556/article/details/83930186
[3] https://blog.youkuaiyun.com/u012033832/article/details/78519422
[4] https://blog.youkuaiyun.com/qq_40778406/article/details/79879434c
[5] https://blog.youkuaiyun.com/qq_32241189/article/details/79881782
[6] https://blog.youkuaiyun.com/d__760/article/details/80387432

### 逻辑回归(LR支持向量机(SVM)的系统实现对比分析 #### 1. 损失函数的设计 逻辑回归支持向量机在损失函数的选择上存在显著差异。逻辑回归采用的是对数损失函数(logistical loss),而支持向量机则使用铰链损失函数(hinge loss)。这种选择直接影响了模型的学习目标优化过程[^2]。 #### 2. 样本处理方式 逻辑回归在训练过程中会考虑所有样本,即使这些样本距离分类边界较远,它们仍然会对总体损失函数产生影响。相比之下,支持向量机仅关注离分类边界最近的样本点,即支持向量,这使得SVM的计算复杂度较低,尤其是在高维空间中[^3]。 #### 3. 非线性问题的解决 在处理非线性问题时,支持向量机通过引入核函数机制将数据映射到高维空间,从而实现线性可分。而在逻辑回归中,由于每个样本点都需要参分类决策计算,若引入核函数,则会导致计算复杂度急剧上升,因此在实际应用中,逻辑回归很少使用核函数机制[^4]。 #### 4. 模型复杂度 逻辑回归是一个参数化模型,其模型复杂度主要由特征数量决定。而支持向量机是非参数化模型,其复杂度取决于支持向量的数量。这意味着在大规模数据集上,逻辑回归可能更易于实现优化[^2]。 #### 5. 训练算法 逻辑回归通常采用梯度下降法或其变种进行优化,这类方法适用于大规模数据集。支持向量机的训练过程涉及求解一个二次规划问题,虽然有多种优化算法可供选择(如SMO算法),但在处理大规模数据时仍可能面临效率问题[^1]。 ```python # 示例代码:逻辑回归支持向量机的简单实现 from sklearn.linear_model import LogisticRegression from sklearn.svm import SVC # 假设X_train, y_train为训练数据 # 逻辑回归模型 lr = LogisticRegression() lr.fit(X_train, y_train) # 支持向量机模型 svm = SVC(kernel='linear') # 使用线性核 svm.fit(X_train, y_train) ``` #### 6. 输出形式 逻辑回归可以提供概率输出,即对于每个样本预测其属于某一类别的概率值。而支持向量机直接输出类别标签,不直接提供概率估计(但可以通过 Platt Scaling 等方法间接获得概率输出)[^1]。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值