<机器学习笔记-04 ><scikit-learn 04>逻辑回归

本文详细介绍了使用Python的scikit-learn库进行逻辑回归的实践,涵盖二元分类、多类分类和多标签分类。内容包括逻辑回归概念、分类评估方法、GridSearch优化、Python编程技巧及实例代码。通过对UCI数据集的短信分类问题进行案例分析,展示了如何计算TF-IDF权重、评估模型性能并优化超参数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

<机器学习笔记-04 >逻辑回归

关键词:机器学习,python,scikit-learn,逻辑回归,Latex

摘要:本文主要介绍了分类任务的分类,逻辑回归的概念,以及分类评估方法;同时介绍了如何使用python对分类任务进行建模、预测结果以及结果评价,以及使用GridSearch方法进行优化;

注:LaTeX常见命令请参考wikibooks,笔者将其pdf上传到csdn下载中。


  1. 知识要点总结
    1. 掌握概念:分类任务(二元分类、多类分类、多标签分类)
    2. 理解:广义线性回归概念,以及逻辑回归属于线性模型的原因;
    3. 理解分类评估方法:准确率、精确率、召回率、误警率、综合评价指标、ROC-AUC值、混淆矩阵、汉明损失函数,杰卡德相似度;
    4. 掌握使用python,针对二元分类和多类分类,训练逻辑回归模型,预测结果,对结果进行评价(各类分类评估方法);会使用GridSearch方法进行优化求解;
  2. 基本概念与理论分析
    1. 分类任务:目标是寻找一个函数,把观测值匹配到相应的类和标签上;逻辑回归(logistic regression)可以用来处理分类任务;常见分类可以分为二元分类(binary classification)、多类分类(multi-class classification)以及多标签分类(multi-label classification);
    2. F(t)=11+et

    3. 逻辑回归被认为是线性模型的原因(参考周志华《机器学习》):
      1. 线性模型(linear model)试图用线性组合进行预测的函数,即

        f(x)=w1x1+w2x2+...+wdxd+b

        用向量形式写为

        f(x)=ωTx+b

      2. 从逻辑函数可以推导得到

        lny1y=ωT
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值