【机器学习-14】-逻辑回归 vs. Softmax回归:核心公式与解题指南
1. 逻辑回归(Logistic Regression)
适用场景:二分类问题(如判断肿瘤恶性/良性)
核心公式:
z = w ⋅ x + b (线性组合) a 1 = g ( z ) = 1 1 + e − z = P ( y = 1 ∣ x ) (Sigmoid函数) a 2 = 1 − a 1 = P ( y = 0 ∣ x ) \begin{align*} z &= \mathbf{w} \cdot \mathbf{x} + b \quad \text{(线性组合)} \\ a_1 &= g(z) = \frac{1}{1 + e^{-z}} = P(y=1 \mid \mathbf{x}) \quad \text{(Sigmoid函数)} \\ a_2 &= 1 - a_1 = P(y=0 \mid \mathbf{x}) \end{align*} za1a2=w⋅x+b(线性组合)=g(z)=1+e−z1=P(y=1∣x)(Sigmoid函数)=1−a1=P(y=0∣x)
解题步骤:
- 计算线性得分 z = w ⋅ x + b z = \mathbf{w} \cdot \mathbf{x} + b z=w⋅x+b。
- 通过Sigmoid函数将 ( z ) 映射为概率 ( a_1 )。
- 设定阈值(如0.5)判定类别:
• 若 a 1 ≥ 0.5 a_1 \geq 0.5 a1≥0.5,预测 ( y=1 );否则 ( y=0 )。
2. Softmax回归(Softmax Regression)
适用场景:多分类问题(如手写数字识别,4个类别)
核心公式:
z
j
=
w
j
⋅
x
+
b
j
(第j类的线性得分)
a
j
=
e
z
j
∑
k
=
1
N
e
z
k
=
P
(
y
=
j
∣
x
)
(Softmax函数)
\begin{align*} z_j &= \mathbf{w}_j \cdot \mathbf{x} + b_j \quad \text{(第j类的线性得分)} \\ a_j &= \frac{e^{z_j}}{\sum_{k=1}^N e^{z_k}} = P(y=j \mid \mathbf{x}) \quad \text{(Softmax函数)} \end{align*}
zjaj=wj⋅x+bj(第j类的线性得分)=∑k=1Nezkezj=P(y=j∣x)(Softmax函数)
特性:
• 所有类别概率之和为1(
∑
j
=
1
N
a
j
=
1
\sum_{j=1}^N a_j = 1
∑j=1Naj=1)。
• 输出概率最大的类别为预测结果。
解题步骤:
- 对每个类别计算线性得分 z j z_j zj。
- 通过Softmax函数归一化为概率分布 ( a_j )。
- 选择概率最大的 ( a_j ) 对应的类别。
• 逻辑回归损失函数(二元交叉熵):
loss
=
−
y
log
a
1
−
(
1
−
y
)
log
(
1
−
a
1
)
\text{loss} = -y \log a_1 - (1 - y) \log(1 - a_1)
loss=−yloga1−(1−y)log(1−a1)
• Softmax回归损失函数(多元交叉熵):
loss
=
−
log
a
j
\text{loss} = -\log a_j
loss=−logaj(( j )为真实类别标签)
3. 关键对比
特性 | 逻辑回归 | Softmax回归 |
---|---|---|
输出类别数 | 2(二分类) | ( N )(多分类) |
激活函数 | Sigmoid | Softmax |
概率归一化 | a 1 + a 2 = 1 a_1 + a_2 = 1 a1+a2=1 | ∑ j = 1 N a j = 1 \sum_{j=1}^N a_j = 1 ∑j=1Naj=1 |
参数数量 | 1组权重 ( \mathbf{w} ) | ( N ) 组权重 ( \mathbf{w}_j ) |