【机器学习-14】-二分类 vs N分类--逻辑回归 vs. Softmax回归

【机器学习-14】-逻辑回归 vs. Softmax回归:核心公式与解题指南


1. 逻辑回归(Logistic Regression)

适用场景:二分类问题(如判断肿瘤恶性/良性)
核心公式

z = w ⋅ x + b (线性组合) a 1 = g ( z ) = 1 1 + e − z = P ( y = 1 ∣ x ) (Sigmoid函数) a 2 = 1 − a 1 = P ( y = 0 ∣ x ) \begin{align*} z &= \mathbf{w} \cdot \mathbf{x} + b \quad \text{(线性组合)} \\ a_1 &= g(z) = \frac{1}{1 + e^{-z}} = P(y=1 \mid \mathbf{x}) \quad \text{(Sigmoid函数)} \\ a_2 &= 1 - a_1 = P(y=0 \mid \mathbf{x}) \end{align*} za1a2=wx+b(线性组合)=g(z)=1+ez1=P(y=1x)(Sigmoid函数)=1a1=P(y=0x)

解题步骤

  1. 计算线性得分 z = w ⋅ x + b z = \mathbf{w} \cdot \mathbf{x} + b z=wx+b
  2. 通过Sigmoid函数将 ( z ) 映射为概率 ( a_1 )。
  3. 设定阈值(如0.5)判定类别:
    • 若 a 1 ≥ 0.5 a_1 \geq 0.5 a10.5,预测 ( y=1 );否则 ( y=0 )。
2. Softmax回归(Softmax Regression)

适用场景:多分类问题(如手写数字识别,4个类别)
核心公式

z j = w j ⋅ x + b j (第j类的线性得分) a j = e z j ∑ k = 1 N e z k = P ( y = j ∣ x ) (Softmax函数) \begin{align*} z_j &= \mathbf{w}_j \cdot \mathbf{x} + b_j \quad \text{(第j类的线性得分)} \\ a_j &= \frac{e^{z_j}}{\sum_{k=1}^N e^{z_k}} = P(y=j \mid \mathbf{x}) \quad \text{(Softmax函数)} \end{align*} zjaj=wjx+bj(j类的线性得分)=k=1Nezkezj=P(y=jx)(Softmax函数)
在这里插入图片描述

特性
• 所有类别概率之和为1( ∑ j = 1 N a j = 1 \sum_{j=1}^N a_j = 1 j=1Naj=1)。
• 输出概率最大的类别为预测结果。

解题步骤

  1. 对每个类别计算线性得分 z j z_j zj
  2. 通过Softmax函数归一化为概率分布 ( a_j )。
  3. 选择概率最大的 ( a_j ) 对应的类别。

逻辑回归损失函数(二元交叉熵):
loss = − y log ⁡ a 1 − ( 1 − y ) log ⁡ ( 1 − a 1 ) \text{loss} = -y \log a_1 - (1 - y) \log(1 - a_1) loss=yloga1(1y)log(1a1)

Softmax回归损失函数(多元交叉熵):
loss = − log ⁡ a j \text{loss} = -\log a_j loss=logaj(( j )为真实类别标签)


3. 关键对比
特性逻辑回归Softmax回归
输出类别数2(二分类)( N )(多分类)
激活函数SigmoidSoftmax
概率归一化 a 1 + a 2 = 1 a_1 + a_2 = 1 a1+a2=1 ∑ j = 1 N a j = 1 \sum_{j=1}^N a_j = 1 j=1Naj=1
参数数量1组权重 ( \mathbf{w} )( N ) 组权重 ( \mathbf{w}_j )

在这里插入图片描述

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值