人工智能CV方向1 -- 逻辑回归

本文探讨了逻辑回归在二元分类问题中的应用,通过分析年龄、年收入与是否买车的关系,展示了如何使用逻辑回归进行预测,并提供了详细的代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

逻辑回归

背景

二元分类问题:是否佩戴老花镜与年龄的关系

1.分析
(1)是否佩戴老花镜y(0或1)与年龄x的关系:
在这里插入图片描述
(2)设想:y与x的关系用 y = θ \theta θ0 + θ \theta θ1x 来表示
在这里插入图片描述
(3)可以看到并不能很好的拟合
在这里插入图片描述
2.正解
(4)引入逻辑函数:
在这里插入图片描述
(5)y与x的关系用 y = θ \theta θ0 + θ \theta θ1x 来表示,再经过逻辑函数处理,就能很好地做到二元分类(0或1)。
在这里插入图片描述

理论

在这里插入图片描述
附:

  • 指数和对数
    在这里插入图片描述
  • 小知识点
    在这里插入图片描述

实例

已知一些样本数据如下:年龄和年收入 与 是否买车的关系
在这里插入图片描述
问:有一年龄28、年收入8万的人,预测其是否买车?买车概率多大?
在这里插入图片描述
利用逻辑回归训练模型,代码如下:

from sklearn import linear_model

X = [
    [20, 3],
    [23, 7],
    [31, 10],
    [42, 13],
    [50, 7],
    [60, 5]
]

y = [
    0,
    1,
    1,
    1,
    0,
    0
]

lr = linear_model.LogisticRegression()
lr.fit(X, y)

testX = [
    [28, 8]
]

label = lr.predict(testX)
# 预测类别标签:[1或0] 即 [买车/不买车]
print("predicted label = ", label)

# 预测概率:[o的概率  1的概率]
prob = lr.predict_proba(testX)
print("probalility = ", prob)

运行结果:

predicted label =  [1]
probalility =  [[0.14694811 0.85305189]]

可以看到:
testX = [[28, 8]] ---- 年龄28年收入8万的人
predicted label = [1] ----- 预测结果是1,即买车
probalility = [[0.14694811 0.85305189]] ----- 不买车概率是0.14694811,买车概率是0.85305189

损失函数

在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值