目录
条件概率全面深入解析:从基础到应用
一、什么是条件概率?
1.1 核心定义
条件概率是指在已知某个事件发生的条件下,另一个事件发生的概率。用数学语言表达:
P
(
A
∣
B
)
=
P
(
A
∩
B
)
P
(
B
)
其中
P
(
B
)
>
0
P(A|B) = \frac{P(A \cap B)}{P(B)} \quad \text{其中} \quad P(B) > 0
P(A∣B)=P(B)P(A∩B)其中P(B)>0
1.2 通俗理解
“在获得新信息后,重新评估可能性”
就像侦探破案:
- 开始:所有嫌疑人都有嫌疑(先验概率)
- 获得线索:发现某人有不在场证明(条件B)
- 重新评估:该嫌疑人的嫌疑大大降低(条件概率P(A|B))
好的,我们来深入浅出地讲解条件概率和概率论中一个非常核心且强大的概念——边缘化。
1.3 边缘概率
边缘化,顾名思义,就是把处于“边缘”的、我们不关心的变量从概率模型中“移除”或“积掉”,从而得到我们关心的变量的概率。
它的本质是 “求和” 或 “积分”。
- 在离散情况下,就是对不关心的变量进行求和。
- 在连续情况下,就是对不关心的变量进行积分。
1.3.1 简单的例子理解边缘化
假设我们调查一个班级的学生,有两个变量:
- 性别 (G):男(M), 女(F)
- 是否戴眼镜 (E):是(Y), 否(N)
我们有一个联合概率表:
| 戴眼镜 (E=Y) | 不戴眼镜 (E=N) | 行和 (边缘概率) | |
|---|---|---|---|
| 男 (G=M) | 0.3 | 0.2 | 0.5 |
| 女 (G=F) | 0.4 | 0.1 | 0.5 |
| 列和 (边缘概率) | 0.7 | 0.3 | 1.0 |
现在我们来理解“边缘化”:
- 问题:我们想知道一个学生戴眼镜的概率
P(E=Y),但我们不关心他/她的性别。 - 解决思路:如何“移除”性别这个变量?我们把所有性别情况下“戴眼镜”的概率加起来。
- 计算过程:
P(E=Y) = P(G=M, E=Y) + P(G=F, E=Y) = 0.3 + 0.4 = 0.7 - 这就是边缘化!
- 我们对不关心的变量(性别 G)的所有可能取值进行了求和。
- 最终得到的
P(E=Y) = 0.7被称为 “边缘概率” ,因为它出现在表格的“边缘”(最后一行)。
同理,我们想知道这个班级男生的概率 P(G=M),我们不关心他是否戴眼镜:
P(G=M) = P(G=M, E=Y) + P(G=M, E=N) = 0.3 + 0.2 = 0.5
这也是一个边缘化的过程,对变量 E 的所有可能取值进行了求和。
1.3.2 边缘概率数学定义与推导
(1)离散情况(全概率公式)
假设有两个离散随机变量 X X X 和 Y Y Y。
- X X X 的可能取值为 x 1 , x 2 , . . . , x m x_1, x_2, ..., x_m x1,x2,...,xm
- Y Y Y 的可能取值为 y 1 , y 2 , . . . , y n y_1, y_2, ..., y_n y1,y2,...,yn
那么,从联合概率
P
(
X
,
Y
)
P(X, Y)
P(X,Y) 得到
X
X
X 的边缘概率
P
(
X
)
P(X)
P(X) 的公式是:
P
(
X
=
x
i
)
=
∑
j
=
1
n
P
(
X
=
x
i
,
Y
=
y
j
)
P(X=x_i) = \sum_{j=1}^{n} P(X=x_i, Y=y_j)
P(X=xi)=j=1∑nP(X=xi,Y=yj)
解释:为了求
X
X
X取某个特定值
x
i
x_i
xi 的概率,我们把所有
Y
Y
Y 可能取值下,
(
X
=
x
i
,
Y
=
y
j
)
(X=x_i, Y=y_j)
(X=xi,Y=yj) 这个事件发生的概率全部加起来。
更一般的,如果我们想求任何一个由
X
X
X决定的事件
A
A
A 的概率(比如
A
A
A 是
X
>
5
X > 5
X>5),边缘化公式为:
P
(
A
)
=
∑
j
=
1
n
P
(
A
,
Y
=
y
j
)
P(A) = \sum_{j=1}^{n} P(A, Y=y_j)
P(A)=j=1∑nP(A,Y=yj)
这其实就是我们前面例子中使用的思想。
(2)连续情况(全概率密度公式)
假设有两个连续随机变量 X X X 和 Y Y Y,它们的联合概率密度函数为 f X , Y ( x , y ) f_{X,Y}(x, y) fX,Y(x,y)。
那么,从联合概率密度得到 X 的边缘概率密度
f
X
(
x
)
f_X(x)
fX(x) 的公式是:
f
X
(
x
)
=
∫
−
∞
∞
f
X
,
Y
(
x
,
y
)
d
y
f_X(x) = \int_{-\infty}^{\infty} f_{X,Y}(x, y) \, dy
fX(x)=∫−∞∞fX,Y(x,y)dy
解释:为了求
X
X
X 在某个点
x
x
x 附近的概率密度,我们把所有可能的
Y
Y
Y 值所对应的联合概率密度“累积”(积分)起来。
同样,求事件
A
A
A 的概率:
P
(
A
)
=
∫
−
∞
∞
P
(
A
,
Y
=
y
)
d
y
或更严谨地
P
(
A
)
=
∫
−
∞
∞
∫
A
f
X
,
Y
(
x
,
y
)
d
x
d
y
P(A) = \int_{-\infty}^{\infty} P(A, Y=y) \, dy \quad \text{或更严谨地} \quad P(A) = \int_{-\infty}^{\infty} \int_{A} f_{X,Y}(x, y) \, dx \, dy
P(A)=∫−∞∞P(A,Y=y)dy或更严谨地P(A)=∫−∞∞∫AfX,Y(x,y)dxdy
1.3.3为什么叫“边缘化”?
这个术语非常形象地描述了它的计算过程。回头看我们最初的表格:
| 戴眼镜 (E=Y) | 不戴眼镜 (E=N) | 行和 | |
|---|---|---|---|
| 男 (G=M) | 0.3 | 0.2 | 0.5 |
| 女 (G=F) | 0.4 | 0.1 | 0.5 |
| 列和 | 0.7 | 0.3 | 1.0 |
我们通过求和计算出的概率 P(G=M)=0.5 和 P(E=Y)=0.7 都被写在了表格的边缘(最后一行和最后一列)。因此,这个“求和到边缘”的过程就被称为边缘化。
简单来说,边缘化就是一种“抓大放小、聚焦重点”的概率计算技巧。
二、条件概率的预备知识
2.1 基本概率概念
样本空间:所有可能结果的集合
- 例子:掷骰子的样本空间 = {1,2,3,4,5,6}
事件:样本空间的子集
- 例子:掷出偶数 = {2,4,6}
概率公理:
- 非负性: P ( A ) ≥ 0 P(A) ≥ 0 P(A)≥0
- 规范性: P ( 样本空间 ) = 1 P(样本空间) = 1 P(样本空间)=1
- 可加性:互斥事件的并集概率 = 各事件概率之和
2.2 集合论基础
交集:
A
∩
B
A \cap B
A∩B(A和B同时发生)
并集:
A
∪
B
A \cup B
A∪B(A或B至少一个发生)
补集:Aᶜ(A不发生)
2.3 独立事件
事件A和B独立 ⇔ P ( A ∩ B ) = P ( A ) P ( B ) P(A∩B) = P(A)P(B) P(A∩B)=P(A)P(B)
- 独立意味着:知道B发生不影响A的概率
三、条件概率的深入理解
3.1 样本空间的收缩
原始样本空间:
Ω
\Omega
Ω
条件样本空间:
B
B
B(已知
B
B
B发生)
条件概率:在
B
B
B中
A
A
A所占的比例
例子:
- 全班50人,男生30人,女生20人
- 戴眼镜的共15人,其中男生10人,女生5人
- P(戴眼镜|男生) = 10/30 = 1/3
- 样本空间从"全班"收缩到"男生"
3.2 条件概率的性质
- 非负性: P ( A ∣ B ) ≥ 0 P(A|B) ≥ 0 P(A∣B)≥0
- 规范性: P ( B ∣ B ) = 1 P(B|B) = 1 P(B∣B)=1
- 可加性:如果 A 1 , A 2 , . . . A_1, A_2,... A1,A2,...互斥,则 P ( ∪ A i ∣ B ) = ∑ P ( A i ∣ B ) P(∪A_i|B) = \sum P(A_i|B) P(∪Ai∣B)=∑P(Ai∣B)
3.3 乘法公式
由条件概率定义可得:
P
(
A
∩
B
)
=
P
(
B
)
P
(
A
∣
B
)
=
P
(
A
)
P
(
B
∣
A
)
P(A \cap B) = P(B)P(A|B) = P(A)P(B|A)
P(A∩B)=P(B)P(A∣B)=P(A)P(B∣A)
推广到多个事件:
P
(
A
1
∩
A
2
∩
⋯
∩
A
n
)
=
P
(
A
1
)
P
(
A
2
∣
A
1
)
P
(
A
3
∣
A
1
∩
A
2
)
⋯
P
(
A
n
∣
A
1
∩
⋯
∩
A
n
−
1
)
P(A_1 \cap A_2 \cap \cdots \cap A_n) = P(A_1)P(A_2|A_1)P(A_3|A_1 \cap A_2) \cdots P(A_n|A_1 \cap \cdots \cap A_{n-1})
P(A1∩A2∩⋯∩An)=P(A1)P(A2∣A1)P(A3∣A1∩A2)⋯P(An∣A1∩⋯∩An−1)
乘法公式推广到多个事件的详细推导过程
3.3.1 两个事件的乘法公式:
P ( A ∩ B ) = P ( A ) P ( B ∣ A ) = P ( B ) P ( A ∣ B ) P(A \cap B) = P(A)P(B|A) = P(B)P(A|B) P(A∩B)=P(A)P(B∣A)=P(B)P(A∣B)
3.3.2 三个事件的乘法公式推导
推导过程:
我们想要证明:
P ( A ∩ B ∩ C ) = P ( A ) P ( B ∣ A ) P ( C ∣ A ∩ B ) P(A \cap B \cap C) = P(A)P(B|A)P(C|A \cap B) P(A∩B∩C)=P(A)P(B∣A)P(C∣A∩B)
步骤1: 将三个事件的交集看作两个事件的交集
P ( A ∩ B ∩ C ) = P ( ( A ∩ B ) ∩ C ) P(A \cap B \cap C) = P((A \cap B) \cap C) P(A∩B∩C)=P((A∩B)∩C)
步骤2: 对事件 ( A ∩ B ) (A \cap B) (A∩B) 和 C C C 应用两个事件的乘法公式
P ( ( A ∩ B ) ∩ C ) = P ( A ∩ B ) P ( C ∣ A ∩ B ) P((A \cap B) \cap C) = P(A \cap B)P(C|A \cap B) P((A∩B)∩C)=P(A∩B)P(C∣A∩B)
步骤3: 对 P ( A ∩ B ) P(A \cap B) P(A∩B) 再次应用两个事件的乘法公式
P ( A ∩ B ) = P ( A ) P ( B ∣ A ) P(A \cap B) = P(A)P(B|A) P(A∩B)=P(A)P(B∣A)
步骤4: 将步骤3代入步骤2
P ( A ∩ B ∩ C ) = P ( A ) P ( B ∣ A ) P ( C ∣ A ∩ B ) P(A \cap B \cap C) = P(A)P(B|A)P(C|A \cap B) P(A∩B∩C)=P(A)P(B∣A)P(C∣A∩B)
推导完成!对称形式:
同理,我们可以得到其他排列形式:
P ( A ∩ B ∩ C ) = P ( A ) P ( C ∣ A ) P ( B ∣ A ∩ C ) P(A \cap B \cap C) = P(A)P(C|A)P(B|A \cap C) P(A∩B∩C)=P(A)P(C∣A)P(B∣A∩C)
P ( A ∩ B ∩ C ) = P ( B ) P ( A ∣ B ) P ( C ∣ A ∩ B ) P(A \cap B \cap C) = P(B)P(A|B)P(C|A \cap B) P(A∩B∩C)=P(B)P(A∣B)P(C∣A∩B)
等等。
3.3.3 n个事件的乘法公式推导
目标:
证明对于任意n个事件 A 1 , A 2 , . . . , A n A_1, A_2, ..., A_n A1,A2,...,An:
P ( ⋂ i = 1 n A i ) = P ( A 1 ) P ( A 2 ∣ A 1 ) P ( A 3 ∣ A 1 ∩ A 2 ) ⋯ P ( A n ∣ ⋂ i = 1 n − 1 A i ) P\left(\bigcap_{i=1}^n A_i\right) = P(A_1)P(A_2|A_1)P(A_3|A_1 \cap A_2) \cdots P\left(A_n\left|\bigcap_{i=1}^{n-1} A_i\right.\right) P(⋂i=1nAi)=P(A1)P(A2∣A1)P(A3∣A1∩A2)⋯P(An ⋂i=1n−1Ai)
数学归纳法证明:
基础情况(n=2):
P ( A 1 ∩ A 2 ) = P ( A 1 ) P ( A 2 ∣ A 1 ) P(A_1 \cap A_2) = P(A_1)P(A_2|A_1) P(A1∩A2)=P(A1)P(A2∣A1)
这已经由条件概率定义证明。
归纳假设:
假设对于 n = k n=k n=k个事件,公式成立:
P ( ⋂ i = 1 k A i ) = P ( A 1 ) P ( A 2 ∣ A 1 ) P ( A 3 ∣ A 1 ∩ A 2 ) ⋯ P ( A k ∣ ⋂ i = 1 k − 1 A i ) P\left(\bigcap_{i=1}^k A_i\right) = P(A_1)P(A_2|A_1)P(A_3|A_1 \cap A_2) \cdots P\left(A_k\left|\bigcap_{i=1}^{k-1} A_i\right.\right) P(⋂i=1kAi)=P(A1)P(A2∣A1)P(A3∣A1∩A2)⋯P(Ak ⋂i=1k−1Ai)
归纳步骤(证明n=k+1时成立):
步骤1: 将 k + 1 k+1 k+1个事件的交集重新组合
P ( ⋂ i = 1 k + 1 A i ) = P ( ( ⋂ i = 1 k A i ) ∩ A k + 1 ) P\left(\bigcap_{i=1}^{k+1} A_i\right) = P\left(\left(\bigcap_{i=1}^k A_i\right) \cap A_{k+1}\right) P(⋂i=1k+1Ai)=P((⋂i=1kAi)∩Ak+1)
步骤2: 对 ⋂ i = 1 k A i \bigcap_{i=1}^k A_i ⋂i=1kAi 和 A k + 1 A_{k+1} Ak+1 应用两个事件的乘法公式
P ( ( ⋂ i = 1 k A i ) ∩ A k + 1 ) = P ( ⋂ i = 1 k A i ) P ( A k + 1 ∣ ⋂ i = 1 k A i ) P\left(\left(\bigcap_{i=1}^k A_i\right) \cap A_{k+1}\right) = P\left(\bigcap_{i=1}^k A_i\right)P\left(A_{k+1}\left|\bigcap_{i=1}^k A_i\right.\right) P((⋂i=1kAi)∩Ak+1)=P(⋂i=1kAi)P(Ak+1 ⋂i=1kAi)
步骤3: 根据归纳假设,代入 P ( ⋂ i = 1 k A i ) P\left(\bigcap_{i=1}^k A_i\right) P(⋂i=1kAi)
P ( ⋂ i = 1 k + 1 A i ) = [ P ( A 1 ) P ( A 2 ∣ A 1 ) ⋯ P ( A k ∣ ⋂ i = 1 k − 1 A i ) ] P ( A k + 1 ∣ ⋂ i = 1 k A i ) P\left(\bigcap_{i=1}^{k+1} A_i\right) = \left[P(A_1)P(A_2|A_1) \cdots P\left(A_k\left|\bigcap_{i=1}^{k-1} A_i\right.\right)\right]P\left(A_{k+1}\left|\bigcap_{i=1}^k A_i\right.\right) P(⋂i=1k+1Ai)=[P(A1)P(A2∣A1)⋯P(Ak ⋂i=1k−1Ai)]P(Ak+1 ⋂i=1kAi)
步骤4: 整理得到
P ( ⋂ i = 1 k + 1 A i ) = P ( A 1 ) P ( A 2 ∣ A 1 ) P ( A 3 ∣ A 1 ∩ A 2 ) ⋯ P ( A k + 1 ∣ ⋂ i = 1 k A i ) P\left(\bigcap_{i=1}^{k+1} A_i\right) = P(A_1)P(A_2|A_1)P(A_3|A_1 \cap A_2) \cdots P\left(A_{k+1}\left|\bigcap_{i=1}^k A_i\right.\right) P(⋂i=1k+1Ai)=P(A1)P(A2∣A1)P(A3∣A1∩A2)⋯P(Ak+1 ⋂i=1kAi)
归纳完成!
3.3.4 递推推导方法
另一种更直观的推导:
步骤1: 从条件概率定义出发
P ( A 2 ∣ A 1 ) = P ( A 1 ∩ A 2 ) P ( A 1 ) ⇒ P ( A 1 ∩ A 2 ) = P ( A 1 ) P ( A 2 ∣ A 1 ) P(A_2|A_1) = \frac{P(A_1 \cap A_2)}{P(A_1)} \Rightarrow P(A_1 \cap A_2) = P(A_1)P(A_2|A_1) P(A2∣A1)=P(A1)P(A1∩A2)⇒P(A1∩A2)=P(A1)P(A2∣A1)
步骤2: 添加第三个事件
P ( A 3 ∣ A 1 ∩ A 2 ) = P ( A 1 ∩ A 2 ∩ A 3 ) P ( A 1 ∩ A 2 ) P(A_3|A_1 \cap A_2) = \frac{P(A_1 \cap A_2 \cap A_3)}{P(A_1 \cap A_2)} P(A3∣A1∩A2)=P(A1∩A2)P(A1∩A2∩A3)
代入步骤1的结果:
P ( A 3 ∣ A 1 ∩ A 2 ) = P ( A 1 ∩ A 2 ∩ A 3 ) P ( A 1 ) P ( A 2 ∣ A 1 ) P(A_3|A_1 \cap A_2) = \frac{P(A_1 \cap A_2 \cap A_3)}{P(A_1)P(A_2|A_1)} P(A3∣A1∩A2)=P(A1)P(A2∣A1)P(A1∩A2∩A3)
整理得:
P ( A 1 ∩ A 2 ∩ A 3 ) = P ( A 1 ) P ( A 2 ∣ A 1 ) P ( A 3 ∣ A 1 ∩ A 2 ) P(A_1 \cap A_2 \cap A_3) = P(A_1)P(A_2|A_1)P(A_3|A_1 \cap A_2) P(A1∩A2∩A3)=P(A1)P(A2∣A1)P(A3∣A1∩A2)
步骤3: 推广到第n个事件
假设前n-1个事件已经处理:
P ( ⋂ i = 1 n − 1 A i ) = P ( A 1 ) P ( A 2 ∣ A 1 ) ⋯ P ( A n − 1 ∣ ⋂ i = 1 n − 2 A i ) P\left(\bigcap_{i=1}^{n-1} A_i\right) = P(A_1)P(A_2|A_1) \cdots P\left(A_{n-1}\left|\bigcap_{i=1}^{n-2} A_i\right.\right) P(⋂i=1n−1Ai)=P(A1)P(A2∣A1)⋯P(An−1 ⋂i=1n−2Ai)
对于第n个事件:
P ( A n ∣ ⋂ i = 1 n − 1 A i ) = P ( ⋂ i = 1 n A i ) P ( ⋂ i = 1 n − 1 A i ) P\left(A_n\left|\bigcap_{i=1}^{n-1} A_i\right.\right) = \frac{P\left(\bigcap_{i=1}^n A_i\right)}{P\left(\bigcap_{i=1}^{n-1} A_i\right)} P(An ⋂i=1n−1Ai)=P(⋂i=1n−1Ai)P(⋂i=1nAi)
代入前n-1个事件的结果:
P ( A n ∣ ⋂ i = 1 n − 1 A i ) = P ( ⋂ i = 1 n A i ) P ( A 1 ) P ( A 2 ∣ A 1 ) ⋯ P ( A n − 1 ∣ ⋂ i = 1 n − 2 A i ) P\left(A_n\left|\bigcap_{i=1}^{n-1} A_i\right.\right) = \frac{P\left(\bigcap_{i=1}^n A_i\right)}{P(A_1)P(A_2|A_1) \cdots P\left(A_{n-1}\left|\bigcap_{i=1}^{n-2} A_i\right.\right)} P(An ⋂i=1n−1Ai)=P(A1)P(A2∣A1)⋯P(An−1∣⋂i=1n−2Ai)P(⋂i=1nAi)
整理得:
P ( ⋂ i = 1 n A i ) = P ( A 1 ) P ( A 2 ∣ A 1 ) ⋯ P ( A n ∣ ⋂ i = 1 n − 1 A i ) P\left(\bigcap_{i=1}^n A_i\right) = P(A_1)P(A_2|A_1) \cdots P\left(A_n\left|\bigcap_{i=1}^{n-1} A_i\right.\right) P(⋂i=1nAi)=P(A1)P(A2∣A1)⋯P(An ⋂i=1n−1Ai)
3.3.5重要性质和应用
- 链式规则
乘法公式本质上是一个链式规则,每个条件概率都依赖于前面所有事件的发生。- 与独立性的关系
如果事件相互独立,乘法公式简化为:
P ( ⋂ i = 1 n A i ) = ∏ i = 1 n P ( A i ) P\left(\bigcap_{i=1}^n A_i\right) = \prod_{i=1}^n P(A_i) P(⋂i=1nAi)=∏i=1nP(Ai)- 贝叶斯网络基础
乘法公式是贝叶斯网络中联合概率分解的理论基础。- 序贯决策应用
在序贯决策过程中,每个决策都依赖于之前的所有信息和决策结果。- 总结
乘法公式推广到多个事件的推导核心思想是:
- 递归应用:将n个事件的交集逐步分解为两个事件的交集
- 条件累积:每个新事件的条件概率都累积了前面所有事件的信息
- 数学严谨性:可以通过数学归纳法严格证明
四、条件概率的延伸应用
4.1 贝叶斯定理
4.1.1 贝叶斯定理概述
公式:
P
(
A
∣
B
)
=
P
(
B
∣
A
)
P
(
A
)
P
(
B
)
P(A|B) = \frac{P(B|A)P(A)}{P(B)}
P(A∣B)=P(B)P(B∣A)P(A)
现实应用:
- 医疗诊断:已知检测准确率和疾病患病率,计算检测阳性时真正患病的概率
- 垃圾邮件过滤:已知某些关键词在垃圾邮件中出现的概率,计算包含这些关键词的邮件是垃圾邮件的概率
- 法庭证据:已知DNA匹配概率,计算被告有罪的概率
4.1.2 贝叶斯定理的推导
(1)基础贝叶斯定理推导
已知条件:
- 条件概率定义: P ( A ∣ B ) = P ( A ∩ B ) P ( B ) P(A|B) = \frac{P(A \cap B)}{P(B)} P(A∣B)=P(B)P(A∩B)
- 乘法公式: P ( A ∩ B ) = P ( A ) P ( B ∣ A ) = P ( B ) P ( A ∣ B ) P(A \cap B) = P(A)P(B|A) = P(B)P(A|B) P(A∩B)=P(A)P(B∣A)=P(B)P(A∣B)
推导过程:
P ( A ∣ B ) = P ( A ∩ B ) P ( B ) (条件概率定义) = P ( B ∣ A ) P ( A ) P ( B ) (代入乘法公式) \begin{align*} P(A|B) &= \frac{P(A \cap B)}{P(B)} \quad \text{(条件概率定义)} \\ &= \frac{P(B|A)P(A)}{P(B)} \quad \text{(代入乘法公式)} \end{align*} P(A∣B)=P(B)P(A∩B)(条件概率定义)=P(B)P(B∣A)P(A)(代入乘法公式)
最终得到贝叶斯定理:
P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) P(A|B) = \frac{P(B|A)P(A)}{P(B)} P(A∣B)=P(B)P(B∣A)P(A)
(2)扩展贝叶斯定理(使用全概率公式)
推导过程:
P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) (基础贝叶斯) = P ( B ∣ A ) P ( A ) ∑ i = 1 n P ( B ∣ A i ) P ( A i ) (分母使用全概率公式展开) \begin{align*} P(A|B) &= \frac{P(B|A)P(A)}{P(B)} \quad \text{(基础贝叶斯)} \\ &= \frac{P(B|A)P(A)}{\sum\limits_{i=1}^n P(B|A_i)P(A_i)} \quad \text{(分母使用全概率公式展开)} \end{align*} P(A∣B)=P(B)P(B∣A)P(A)(基础贝叶斯)=i=1∑nP(B∣Ai)P(Ai)P(B∣A)P(A)(分母使用全概率公式展开)
其中 A 1 , A 2 , . . . , A n A_1, A_2, ..., A_n A1,A2,...,An 构成完备事件组。
最终扩展形式:
P ( A j ∣ B ) = P ( B ∣ A j ) P ( A j ) ∑ i = 1 n P ( B ∣ A i ) P ( A i ) P(A_j|B) = \frac{P(B|A_j)P(A_j)}{\sum\limits_{i=1}^n P(B|A_i)P(A_i)} P(Aj∣B)=i=1∑nP(B∣Ai)P(Ai)P(B∣Aj)P(Aj)
4.2 全概率公式
4.2.1 全概率公式概述
公式:
P
(
A
)
=
∑
i
=
1
n
P
(
A
∣
B
i
)
P
(
B
i
)
P(A) = \sum_{i=1}^{n} P(A|B_i)P(B_i)
P(A)=i=1∑nP(A∣Bi)P(Bi)
其中
B
1
,
.
.
.
,
B
n
B_1,...,B_n
B1,...,Bn构成完备事件组
应用场景:
- 质量控制:产品来自不同生产线,计算总体合格率
- 市场分析:不同细分市场的购买率,计算整体购买率
4.2.2 全概率公式的推导
(1)离散情况全概率公式推导
已知条件:
- 事件 B 1 , B 2 , . . . , B n B_1, B_2, ..., B_n B1,B2,...,Bn 构成完备事件组
- 即: B i ∩ B j = ∅ B_i \cap B_j = \emptyset Bi∩Bj=∅(互斥)且 ⋃ i = 1 n B i = Ω \bigcup_{i=1}^n B_i = \Omega ⋃i=1nBi=Ω(完备)
推导过程:
A = A ∩ Ω (任何事件与样本空间的交集等于自身) = A ∩ ( ⋃ i = 1 n B i ) (代入完备性) = ⋃ i = 1 n ( A ∩ B i ) (分配律) \begin{align*} A &= A \cap \Omega \quad \text{(任何事件与样本空间的交集等于自身)} \\ &= A \cap \left(\bigcup_{i=1}^n B_i\right) \quad \text{(代入完备性)} \\ &= \bigcup_{i=1}^n (A \cap B_i) \quad \text{(分配律)} \end{align*} A=A∩Ω(任何事件与样本空间的交集等于自身)=A∩(i=1⋃nBi)(代入完备性)=i=1⋃n(A∩Bi)(分配律)
由于 B i B_i Bi 互斥,所以 A ∩ B i A \cap B_i A∩Bi 也互斥,应用概率可加性:
P ( A ) = P ( ⋃ i = 1 n ( A ∩ B i ) ) = ∑ i = 1 n P ( A ∩ B i ) P(A) = P\left(\bigcup_{i=1}^n (A \cap B_i)\right) = \sum_{i=1}^n P(A \cap B_i) P(A)=P(i=1⋃n(A∩Bi))=i=1∑nP(A∩Bi)
应用乘法公式 P ( A ∩ B i ) = P ( B i ) P ( A ∣ B i ) P(A \cap B_i) = P(B_i)P(A|B_i) P(A∩Bi)=P(Bi)P(A∣Bi):
P ( A ) = ∑ i = 1 n P ( B i ) P ( A ∣ B i ) P(A) = \sum_{i=1}^n P(B_i)P(A|B_i) P(A)=i=1∑nP(Bi)P(A∣Bi)
(2)连续情况全概率公式推导
已知条件:
- 随机变量 X X X 有概率密度函数 f X ( x ) f_X(x) fX(x)
- 条件概率 P ( A ∣ X = x ) P(A|X=x) P(A∣X=x)
推导过程:
P ( A ) = ∫ − ∞ ∞ P ( A , X = x ) d x (边缘概率定义) = ∫ − ∞ ∞ P ( A ∣ X = x ) f X ( x ) d x (条件概率定义) \begin{align*} P(A) &= \int_{-\infty}^{\infty} P(A, X=x) \, dx \quad \text{(边缘概率定义)} \\ &= \int_{-\infty}^{\infty} P(A|X=x)f_X(x) \, dx \quad \text{(条件概率定义)} \end{align*} P(A)=∫−∞∞P(A,X=x)dx(边缘概率定义)=∫−∞∞P(A∣X=x)fX(x)dx(条件概率定义)
4.3 条件期望
4.3.1 条件期望概述
定义:在给定条件下的随机变量平均值
E
[
X
∣
Y
=
y
]
=
∑
x
x
P
(
X
=
x
∣
Y
=
y
)
E[X|Y=y] = \sum_x x P(X=x|Y=y)
E[X∣Y=y]=x∑xP(X=x∣Y=y)
应用:
- 保险定价:给定年龄、职业等条件,计算期望赔付额
- 投资决策:给定市场条件,计算资产期望收益
4.3.2 条件期望的推导
(1)离散随机变量的条件期望
定义推导:
E [ X ∣ Y = y ] = ∑ x x P ( X = x ∣ Y = y ) (期望的定义) = ∑ x x P ( X = x , Y = y ) P ( Y = y ) (条件概率定义) = 1 P ( Y = y ) ∑ x x P ( X = x , Y = y ) \begin{align*} E[X|Y=y] &= \sum_x x P(X=x|Y=y) \quad \text{(期望的定义)} \\ &= \sum_x x \frac{P(X=x, Y=y)}{P(Y=y)} \quad \text{(条件概率定义)} \\ &= \frac{1}{P(Y=y)} \sum_x x P(X=x, Y=y) \end{align*} E[X∣Y=y]=x∑xP(X=x∣Y=y)(期望的定义)=x∑xP(Y=y)P(X=x,Y=y)(条件概率定义)=P(Y=y)1x∑xP(X=x,Y=y)
(2)连续随机变量的条件期望
定义推导:
E [ X ∣ Y = y ] = ∫ − ∞ ∞ x f X ∣ Y ( x ∣ y ) d x (期望的定义) = ∫ − ∞ ∞ x f X , Y ( x , y ) f Y ( y ) d x (条件概率密度定义) = 1 f Y ( y ) ∫ − ∞ ∞ x f X , Y ( x , y ) d x \begin{align*} E[X|Y=y] &= \int_{-\infty}^{\infty} x f_{X|Y}(x|y) \, dx \quad \text{(期望的定义)} \\ &= \int_{-\infty}^{\infty} x \frac{f_{X,Y}(x,y)}{f_Y(y)} \, dx \quad \text{(条件概率密度定义)} \\ &= \frac{1}{f_Y(y)} \int_{-\infty}^{\infty} x f_{X,Y}(x,y) \, dx \end{align*} E[X∣Y=y]=∫−∞∞xfX∣Y(x∣y)dx(期望的定义)=∫−∞∞xfY(y)fX,Y(x,y)dx(条件概率密度定义)=fY(y)1∫−∞∞xfX,Y(x,y)dx
(3)条件期望的迭代性质推导
定理: E [ E [ X ∣ Y ] ] = E [ X ] E[E[X|Y]] = E[X] E[E[X∣Y]]=E[X]
推导过程:
E [ E [ X ∣ Y ] ] = ∫ − ∞ ∞ E [ X ∣ Y = y ] f Y ( y ) d y (期望的定义) = ∫ − ∞ ∞ [ ∫ − ∞ ∞ x f X ∣ Y ( x ∣ y ) d x ] f Y ( y ) d y = ∫ − ∞ ∞ ∫ − ∞ ∞ x f X ∣ Y ( x ∣ y ) f Y ( y ) d x d y = ∫ − ∞ ∞ ∫ − ∞ ∞ x f X , Y ( x , y ) d x d y (联合密度定义) = ∫ − ∞ ∞ x [ ∫ − ∞ ∞ f X , Y ( x , y ) d y ] d x = ∫ − ∞ ∞ x f X ( x ) d x (边缘密度定义) = E [ X ] \begin{align*} E[E[X|Y]] &= \int_{-\infty}^{\infty} E[X|Y=y] f_Y(y) \, dy \quad \text{(期望的定义)} \\ &= \int_{-\infty}^{\infty} \left[\int_{-\infty}^{\infty} x f_{X|Y}(x|y) \, dx\right] f_Y(y) \, dy \\ &= \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} x f_{X|Y}(x|y) f_Y(y) \, dx \, dy \\ &= \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} x f_{X,Y}(x,y) \, dx \, dy \quad \text{(联合密度定义)} \\ &= \int_{-\infty}^{\infty} x \left[\int_{-\infty}^{\infty} f_{X,Y}(x,y) \, dy\right] dx \\ &= \int_{-\infty}^{\infty} x f_X(x) \, dx \quad \text{(边缘密度定义)} \\ &= E[X] \end{align*} E[E[X∣Y]]=∫−∞∞E[X∣Y=y]fY(y)dy(期望的定义)=∫−∞∞[∫−∞∞xfX∣Y(x∣y)dx]fY(y)dy=∫−∞∞∫−∞∞xfX∣Y(x∣y)fY(y)dxdy=∫−∞∞∫−∞∞xfX,Y(x,y)dxdy(联合密度定义)=∫−∞∞x[∫−∞∞fX,Y(x,y)dy]dx=∫−∞∞xfX(x)dx(边缘密度定义)=E[X]
4.4 马尔可夫链
4.4.1 马尔可夫链概述
核心思想:下一状态的概率只依赖于当前状态
P
(
X
n
+
1
=
x
∣
X
1
=
x
1
,
.
.
.
,
X
n
=
x
n
)
=
P
(
X
n
+
1
=
x
∣
X
n
=
x
n
)
P(X_{n+1} = x | X_1 = x_1, ..., X_n = x_n) = P(X_{n+1} = x | X_n = x_n)
P(Xn+1=x∣X1=x1,...,Xn=xn)=P(Xn+1=x∣Xn=xn)
应用:
- 天气预测:明天下雨的概率只依赖于今天天气
- 网页排名:网页重要性的概率传播
4.4.2 马尔可夫链的推导
定义: 随机过程 { X n } \{X_n\} {Xn} 具有马尔可夫性质如果:
P ( X n + 1 = x n + 1 ∣ X 1 = x 1 , . . . , X n = x n ) = P ( X n + 1 = x n + 1 ∣ X n = x n ) P(X_{n+1} = x_{n+1} | X_1 = x_1, ..., X_n = x_n) = P(X_{n+1} = x_{n+1} | X_n = x_n) P(Xn+1=xn+1∣X1=x1,...,Xn=xn)=P(Xn+1=xn+1∣Xn=xn)
推导转移概率:
P ( X n + 1 = x n + 1 ∣ X n = x n ) = P ( X n + 1 = x n + 1 , X n = x n ) P ( X n = x n ) (条件概率定义) = ∑ x 1 , . . . , x n − 1 P ( X 1 = x 1 , . . . , X n = x n , X n + 1 = x n + 1 ) ∑ x 1 , . . . , x n − 1 P ( X 1 = x 1 , . . . , X n = x n ) (边缘化) \begin{align*} &P(X_{n+1} = x_{n+1} | X_n = x_n) \\ &= \frac{P(X_{n+1} = x_{n+1}, X_n = x_n)}{P(X_n = x_n)} \quad \text{(条件概率定义)} \\ &= \frac{\sum_{x_1,...,x_{n-1}} P(X_1=x_1,...,X_n=x_n,X_{n+1}=x_{n+1})}{\sum_{x_1,...,x_{n-1}} P(X_1=x_1,...,X_n=x_n)} \quad \text{(边缘化)} \end{align*} P(Xn+1=xn+1∣Xn=xn)=P(Xn=xn)P(Xn+1=xn+1,Xn=xn)(条件概率定义)=∑x1,...,xn−1P(X1=x1,...,Xn=xn)∑x1,...,xn−1P(X1=x1,...,Xn=xn,Xn+1=xn+1)(边缘化)
对于齐次马尔可夫链,转移概率与时间无关:
P ( X n + 1 = j ∣ X n = i ) = p i j P(X_{n+1} = j | X_n = i) = p_{ij} P(Xn+1=j∣Xn=i)=pij
4.5 条件独立性
定义:给定 C C C时, A A A和 B B B独立 ⇔ P ( A ∩ B ∣ C ) = P ( A ∣ C ) P ( B ∣ C ) P(A\cap B|C) = P(A|C)P(B|C) P(A∩B∣C)=P(A∣C)P(B∣C)
应用:
- 医学研究:在控制年龄因素后,研究吸烟与肺癌的关系
- 机器学习:朴素贝叶斯分类器假设特征在给定类别下条件独立
4.6 条件方差
4.6.1 条件方差概述
定义:在给定条件下的方差
V
a
r
(
X
∣
Y
)
=
E
[
(
X
−
E
[
X
∣
Y
]
)
2
∣
Y
]
Var(X|Y) = E[(X - E[X|Y])^2 | Y]
Var(X∣Y)=E[(X−E[X∣Y])2∣Y]
应用:
- 金融风险管理:给定市场条件,计算资产价格波动性
- 质量控制:给定生产条件,计算产品质量波动
4.6.2 条件方差的推导
(1)条件方差定义推导
定义: V a r ( X ∣ Y ) = E [ ( X − E [ X ∣ Y ] ) 2 ∣ Y ] Var(X|Y) = E[(X - E[X|Y])^2|Y] Var(X∣Y)=E[(X−E[X∣Y])2∣Y]
推导等价形式:
V a r ( X ∣ Y ) = E [ ( X − E [ X ∣ Y ] ) 2 ∣ Y ] = E [ X 2 ∣ Y ] − 2 E [ X ⋅ E [ X ∣ Y ] ∣ Y ] + E [ ( E [ X ∣ Y ] ) 2 ∣ Y ] = E [ X 2 ∣ Y ] − 2 E [ X ∣ Y ] E [ X ∣ Y ] + ( E [ X ∣ Y ] ) 2 (E[X|Y]在给定Y时是常数) = E [ X 2 ∣ Y ] − ( E [ X ∣ Y ] ) 2 \begin{align*} Var(X|Y) &= E[(X - E[X|Y])^2|Y] \\ &= E[X^2|Y] - 2E[X \cdot E[X|Y]|Y] + E[(E[X|Y])^2|Y] \\ &= E[X^2|Y] - 2E[X|Y]E[X|Y] + (E[X|Y])^2 \quad \text{(E[X|Y]在给定Y时是常数)} \\ &= E[X^2|Y] - (E[X|Y])^2 \end{align*} Var(X∣Y)=E[(X−E[X∣Y])2∣Y]=E[X2∣Y]−2E[X⋅E[X∣Y]∣Y]+E[(E[X∣Y])2∣Y]=E[X2∣Y]−2E[X∣Y]E[X∣Y]+(E[X∣Y])2(E[X|Y]在给定Y时是常数)=E[X2∣Y]−(E[X∣Y])2
(2)全方差定律推导
定理: V a r ( X ) = E [ V a r ( X ∣ Y ) ] + V a r ( E [ X ∣ Y ] ) Var(X) = E[Var(X|Y)] + Var(E[X|Y]) Var(X)=E[Var(X∣Y)]+Var(E[X∣Y])
推导过程:
V a r ( X ) = E [ X 2 ] − ( E [ X ] ) 2 (方差定义) = E [ E [ X 2 ∣ Y ] ] − ( E [ E [ X ∣ Y ] ] ) 2 (迭代期望) = E [ V a r ( X ∣ Y ) + ( E [ X ∣ Y ] ) 2 ] − ( E [ E [ X ∣ Y ] ] ) 2 (条件方差等价形式) = E [ V a r ( X ∣ Y ) ] + E [ ( E [ X ∣ Y ] ) 2 ] − ( E [ E [ X ∣ Y ] ] ) 2 = E [ V a r ( X ∣ Y ) ] + V a r ( E [ X ∣ Y ] ) (方差定义) \begin{align*} Var(X) &= E[X^2] - (E[X])^2 \quad \text{(方差定义)} \\ &= E[E[X^2|Y]] - (E[E[X|Y]])^2 \quad \text{(迭代期望)} \\ &= E[Var(X|Y) + (E[X|Y])^2] - (E[E[X|Y]])^2 \quad \text{(条件方差等价形式)} \\ &= E[Var(X|Y)] + E[(E[X|Y])^2] - (E[E[X|Y]])^2 \\ &= E[Var(X|Y)] + Var(E[X|Y]) \quad \text{(方差定义)} \end{align*} Var(X)=E[X2]−(E[X])2(方差定义)=E[E[X2∣Y]]−(E[E[X∣Y]])2(迭代期望)=E[Var(X∣Y)+(E[X∣Y])2]−(E[E[X∣Y]])2(条件方差等价形式)=E[Var(X∣Y)]+E[(E[X∣Y])2]−(E[E[X∣Y]])2=E[Var(X∣Y)]+Var(E[X∣Y])(方差定义)
4.7 条件高斯分布的推导
(1) 二元高斯分布的条件分布推导
已知:
- 随机向量 ( X , Y ) (X,Y) (X,Y) 服从二元高斯分布
- 均值向量: μ = ( μ X , μ Y ) \mu = (\mu_X, \mu_Y) μ=(μX,μY)
- 协方差矩阵: Σ = ( σ X 2 ρ σ X σ Y ρ σ X σ Y σ Y 2 ) \Sigma = \begin{pmatrix} \sigma_X^2 & \rho\sigma_X\sigma_Y \\ \rho\sigma_X\sigma_Y & \sigma_Y^2 \end{pmatrix} Σ=(σX2ρσXσYρσXσYσY2)
目标: 求 f X ∣ Y ( x ∣ y ) f_{X|Y}(x|y) fX∣Y(x∣y)
推导过程:
步骤1:写出联合概率密度函数
f X , Y ( x , y ) = 1 2 π σ X σ Y 1 − ρ 2 exp ( − 1 2 ( 1 − ρ 2 ) [ ( x − μ X ) 2 σ X 2 − 2 ρ ( x − μ X ) ( y − μ Y ) σ X σ Y + ( y − μ Y ) 2 σ Y 2 ] ) f_{X,Y}(x,y) = \frac{1}{2\pi\sigma_X\sigma_Y\sqrt{1-\rho^2}} \exp\left(-\frac{1}{2(1-\rho^2)}\left[\frac{(x-\mu_X)^2}{\sigma_X^2} - 2\rho\frac{(x-\mu_X)(y-\mu_Y)}{\sigma_X\sigma_Y} + \frac{(y-\mu_Y)^2}{\sigma_Y^2}\right]\right) fX,Y(x,y)=2πσXσY1−ρ21exp(−2(1−ρ2)1[σX2(x−μX)2−2ρσXσY(x−μX)(y−μY)+σY2(y−μY)2])
步骤2:写出边缘概率密度函数 f Y ( y ) f_Y(y) fY(y)
f Y ( y ) = 1 2 π σ Y exp ( − ( y − μ Y ) 2 2 σ Y 2 ) f_Y(y) = \frac{1}{\sqrt{2\pi}\sigma_Y} \exp\left(-\frac{(y-\mu_Y)^2}{2\sigma_Y^2}\right) fY(y)=2πσY1exp(−2σY2(y−μY)2)
步骤3:计算条件概率密度函数
f X ∣ Y ( x ∣ y ) = f X , Y ( x , y ) f Y ( y ) f_{X|Y}(x|y) = \frac{f_{X,Y}(x,y)}{f_Y(y)} fX∣Y(x∣y)=fY(y)fX,Y(x,y)
代入并化简:
f X ∣ Y ( x ∣ y ) = 1 2 π σ X 1 − ρ 2 × exp ( − 1 2 ( 1 − ρ 2 ) [ ( x − μ X ) 2 σ X 2 − 2 ρ ( x − μ X ) ( y − μ Y ) σ X σ Y + ( y − μ Y ) 2 σ Y 2 − ( 1 − ρ 2 ) ( y − μ Y ) 2 σ Y 2 ] ) \begin{align*} f_{X|Y}(x|y) &= \frac{1}{\sqrt{2\pi}\sigma_X\sqrt{1-\rho^2}} \times \\ &\quad \exp\left(-\frac{1}{2(1-\rho^2)}\left[\frac{(x-\mu_X)^2}{\sigma_X^2} - 2\rho\frac{(x-\mu_X)(y-\mu_Y)}{\sigma_X\sigma_Y} + \frac{(y-\mu_Y)^2}{\sigma_Y^2} - \frac{(1-\rho^2)(y-\mu_Y)^2}{\sigma_Y^2}\right]\right) \end{align*} fX∣Y(x∣y)=2πσX1−ρ21×exp(−2(1−ρ2)1[σX2(x−μX)2−2ρσXσY(x−μX)(y−μY)+σY2(y−μY)2−σY2(1−ρ2)(y−μY)2])
步骤4:完成平方并识别高斯分布参数
经过代数运算,可以证明:
f X ∣ Y ( x ∣ y ) = 1 2 π σ X ∣ Y exp ( − ( x − μ X ∣ Y ) 2 2 σ X ∣ Y 2 ) f_{X|Y}(x|y) = \frac{1}{\sqrt{2\pi}\sigma_{X|Y}} \exp\left(-\frac{(x - \mu_{X|Y})^2}{2\sigma_{X|Y}^2}\right) fX∣Y(x∣y)=2πσX∣Y1exp(−2σX∣Y2(x−μX∣Y)2)
其中:
- 条件均值: μ X ∣ Y = μ X + ρ σ X σ Y ( y − μ Y ) \mu_{X|Y} = \mu_X + \rho\frac{\sigma_X}{\sigma_Y}(y - \mu_Y) μX∣Y=μX+ρσYσX(y−μY)
- 条件方差: σ X ∣ Y 2 = σ X 2 ( 1 − ρ 2 ) \sigma_{X|Y}^2 = \sigma_X^2(1 - \rho^2) σX∣Y2=σX2(1−ρ2)
(2)多元高斯分布的条件分布推导
已知:
- 随机向量 X = ( X 1 X 2 ) \mathbf{X} = \begin{pmatrix} \mathbf{X}_1 \\ \mathbf{X}_2 \end{pmatrix} X=(X1X2) 服从多元高斯分布
- 均值向量: μ = ( μ 1 μ 2 ) \mu = \begin{pmatrix} \mu_1 \\ \mu_2 \end{pmatrix} μ=(μ1μ2)
- 协方差矩阵: Σ = ( Σ 11 Σ 12 Σ 21 Σ 22 ) \Sigma = \begin{pmatrix} \Sigma_{11} & \Sigma_{12} \\ \Sigma_{21} & \Sigma_{22} \end{pmatrix} Σ=(Σ11Σ21Σ12Σ22)
目标: 求 f X 1 ∣ X 2 ( x 1 ∣ x 2 ) f_{\mathbf{X}_1|\mathbf{X}_2}(\mathbf{x}_1|\mathbf{x}_2) fX1∣X2(x1∣x2)
推导过程:
步骤1:使用分块矩阵求逆公式
协方差矩阵的逆可以表示为:
Σ − 1 = ( Σ 11 Σ 12 Σ 21 Σ 22 ) \Sigma^{-1} = \begin{pmatrix} \Sigma^{11} & \Sigma^{12} \\ \Sigma^{21} & \Sigma^{22} \end{pmatrix} Σ−1=(Σ11Σ21Σ12Σ22)
其中:- Σ 11 = ( Σ 11 − Σ 12 Σ 22 − 1 Σ 21 ) − 1 \Sigma^{11} = (\Sigma_{11} - \Sigma_{12}\Sigma_{22}^{-1}\Sigma_{21})^{-1} Σ11=(Σ11−Σ12Σ22−1Σ21)−1
- Σ 12 = − Σ 11 Σ 12 Σ 22 − 1 \Sigma^{12} = -\Sigma^{11}\Sigma_{12}\Sigma_{22}^{-1} Σ12=−Σ11Σ12Σ22−1
步骤2:写出联合概率密度函数的指数部分
多元高斯分布的指数部分为:
Q = − 1 2 ( x − μ ) T Σ − 1 ( x − μ ) Q = -\frac{1}{2}(\mathbf{x} - \mu)^T \Sigma^{-1} (\mathbf{x} - \mu) Q=−21(x−μ)TΣ−1(x−μ)
步骤3:分离与 X 1 \mathbf{X}_1 X1 相关的项
将 Q Q Q 展开并分离出与 x 1 \mathbf{x}_1 x1 相关的二次项和线性项:
Q = − 1 2 x 1 T Σ 11 x 1 + x 1 T ( Σ 11 μ 1 − Σ 12 ( x 2 − μ 2 ) ) + 与 x 1 无关的项 Q = -\frac{1}{2}\mathbf{x}_1^T \Sigma^{11} \mathbf{x}_1 + \mathbf{x}_1^T (\Sigma^{11}\mu_1 - \Sigma^{12}(\mathbf{x}_2 - \mu_2)) + \text{与 }\mathbf{x}_1\text{ 无关的项} Q=−21x1TΣ11x1+x1T(Σ11μ1−Σ12(x2−μ2))+与 x1 无关的项
步骤4:识别条件分布参数
通过完成平方,可以证明条件分布仍然是高斯分布:
- 条件均值: μ 1 ∣ 2 = μ 1 + Σ 12 Σ 22 − 1 ( x 2 − μ 2 ) \mu_{1|2} = \mu_1 + \Sigma_{12}\Sigma_{22}^{-1}(\mathbf{x}_2 - \mu_2) μ1∣2=μ1+Σ12Σ22−1(x2−μ2)
- 条件协方差: Σ 1 ∣ 2 = Σ 11 − Σ 12 Σ 22 − 1 Σ 21 \Sigma_{1|2} = \Sigma_{11} - \Sigma_{12}\Sigma_{22}^{-1}\Sigma_{21} Σ1∣2=Σ11−Σ12Σ22−1Σ21
五、条件概率的思维模式
5.1 信息更新思维
先验概率 → 新证据 → 后验概率
5.2 分情况讨论思维
复杂问题分解为多个简单场景,分别计算后汇总
5.3 因果关系思维
区分相关性与因果关系,理解条件概率如何揭示潜在机制
六、常见误区与注意事项
6.1 因果与相关混淆
P ( A ∣ B ) ≠ P ( B ∣ A ) P(A|B) ≠ P(B|A) P(A∣B)=P(B∣A)
- 已知患病时检测阳性的概率 ≠ 检测阳性时患病的概率
6.2 忽略基础概率
基础概率谬误:过分关注条件概率而忽略先验概率
6.3 条件概率的传递性
P ( A ∣ B ) P(A|B) P(A∣B)和 P ( B ∣ C ) P(B|C) P(B∣C)很高,不能推出 P ( A ∣ C ) P(A|C) P(A∣C)很高
七、实际案例分析
案例1:医疗诊断
问题:某种疾病患病率1%,检测准确率99%。如果检测阳性,真正患病概率是多少?
计算:
- P(患病) = 0.01
- P(阳性|患病) = 0.99
- P(阳性|健康) = 0.01
- 使用贝叶斯定理计算P(患病|阳性) ≈ 50%
启示:直觉可能严重高估概率
案例2:产品质量控制
问题:三条生产线产量占比为50%、30%、20%,合格率分别为99%、98%、95%。随机抽检一个产品合格,它来自第一条生产线的概率是多少?
计算:使用贝叶斯定理
- 先计算总体合格率
- 再计算条件概率
总结
条件概率不仅是数学工具,更是一种思维方式。它教会我们:
- 动态看待概率:概率不是固定不变的,会随着信息更新而变化
- 系统分析问题:通过分解和条件化处理复杂问题
- 理性决策:基于证据不断调整信念,做出更优决策

被折叠的 条评论
为什么被折叠?



