sklean学习之LogisticRegression(逻辑斯蒂回归分类器)【使用方法】

本文深入探讨了sklearn库中的LogisticRegression,主要基于官方文档进行翻译和学习,旨在介绍该逻辑斯蒂回归分类器的详细用法。通过阅读,读者将了解到如何应用LogisticRegression进行分类任务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是根据sklean官方文档进行翻译和学习的,如果理解有误欢迎留言指正,谢谢。

参考地址:

http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html#

sklearn.linear_model.LogisticRegression

sklearn.linear_model.LogisticRegression

class  sklearn.linear_model. LogisticRegression ( penalty=’l2’dual=Falsetol=0.0001C=1.0fit_intercept=Trueintercept_scaling=1class_weight=Nonerandom_state=Nonesolver=’liblinear’max_iter=100multi_class=’ovr’verbose=0warm_start=Falsen_jobs=1 ) [source]

逻辑回归(又名logit, MaxEnt)分类器

Parameters:

penalty : str, ‘l1’ or ‘l2’, default: ‘l2’

惩罚项类别:用于指定惩罚中使用的规范。

dual : bool, default: False

对偶式或者原始式. 对偶式只适用于l2惩罚且solver=‘liblinear ’。 当n_samples > n_features时设置dual=False

tol : float, default: 1e-4

停止时能接受的容差

C : float, default: 1.0

正则项系数的倒数,它必须是一个正的浮点数。就像支持向量机一样,值越小则正则化更强。

fit_intercept : bool, default: True

Specifies if a constant (a.k.a. bias or intercept) should be added to the decision function.

指定是否应该在决策函数中添加一个常量(斜率或

### 多元逻辑回归概述 多元逻辑回归是一种扩展形式的逻辑回归模型,适用于处理多类别分类问题。它通过将多个二分类器组合起来完成对超过两个类别的预测任务[^1]。 #### 概念 多元逻辑回归的核心思想在于利用 softmax 函数来估计属于各个类别的概率分布。对于给定输入 \( \mathbf{x} \),其输出为每个类别的条件概率: \[ P(y=k | \mathbf{x}) = \frac{\exp(\mathbf{w}_k^\top \mathbf{x})}{\sum_{j=1}^{K}\exp(\mathbf{w}_j^\top \mathbf{x})} \] 其中 \( K \) 表示目标类别的总数,\( \mathbf{w}_k \) 是第 \( k \) 类对应的参数向量[^3]。 #### 实现方法 在 scikit-learn 中,`LogisticRegression` 提供了 `multi_class='multinomial'` 参数选项以支持真正的多元逻辑回归。该模式下会采用 Newton-CG 或 LBFGS 等优化算法求解整个系统的最大似然估计值。以下是具体实现方式的一个例子: ```python from sklearn.linear_model import LogisticRegression from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split # 加载数据集并划分训练测试集合 X, y = load_iris(return_X_y=True) X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 初始化并配置模型 model = LogisticRegression(multi_class='multinomial', solver='lbfgs') # 训练模型 model.fit(X_train, y_train) # 输出评估结果 print(f"Accuracy on test set: {model.score(X_test, y_test):.2f}") ``` 上述代码展示了如何基于 Iris 数据集构建一个三分类问题中的多元逻辑回归模型,并使用 lbfgs 解算器进行最优化过程。 #### 应用场景 多元逻辑回归广泛应用于各类实际领域中涉及多标签或多状态识别的任务之中,比如手写数字辨识、文本情感分析以及医学诊断等领域。当面对有限数量离散型输出变量时尤为适用。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值