应用随机过程速通笔记1——条件期望,泊松过程,离散马尔可夫链
本笔记系列适应人群与文前说明
这里仅为速通笔记,文字的省略不可避免,错漏也会存在,有需要的可以对比书或者其他资料进行仔细学习!
参考书籍:熊德文《应用随机过程》第二版, 高等教育出版社
系列预计适应人群:非数专业的随机过程课速通(力学,金融学,机械学,生物学等),或者正在初步学习diffusion相关涉及SDE理论的人群,或者是数学爱好者
本文适应人群:非数专业的随机过程课速通,或者是数学爱好者
前置知识:高等数学,概率论与数理统计,傅里叶变换(谱函数涉及一点)
本文为系列一,包括条件期望和离散马尔科夫链,条件期望适合所有理工科学过概率统计的读者进行了解,系列不定时更新 😃
条件期望
设 ( X , Y ) (X,Y) (X,Y)为任意随机变量,其中 E ∣ X ∣ < + ∞ E|X| < + \infty E∣X∣<+∞,定义条件期望 E ( X ∣ Y ) E(X|Y) E(X∣Y)为满足以下两个条件的唯一随机变量:
- E ( X ∣ Y ) E(X|Y) E(X∣Y)为随机变量Y的函数
- 对任意有界函数 h ( y ) h(y) h(y),都有 E ( E ( X ∣ Y ) h ( Y ) ) = E ( X h ( Y ) ) E(E(X|Y)h(Y)) = E(Xh(Y)) E(E(X∣Y)h(Y))=E(Xh(Y))
不难发现, h ( Y ) = 1 h(Y)=1 h(Y)=1时得到一个小结论 E ( E ( X ∣ Y ) ) = E ( X ) E(E(X|Y)) = E(X) E(E(X∣Y))=E(X),注意这里的期望算子不能省的,这本质是一个积分或者求和算子,可不是什么两边同除就能解决的。
我们注意到什么?这个条件期望本身也是一个随机变量,也就是说,它和一般的能得到具体实值的期望不一样。只有我们知道了 Y Y Y的具体取值,那么才知道对 X X X的期望是什么。
性质也是有不少的:
-
期望线性的性质。
-
全数学期望公式: E ( g ( Y ) ) = E ( E ( g ( Y ) ∣ X ) ) E(g(Y)) = E(E(g(Y)|X)) E(g(Y))=E(E(g(Y)∣X)),注意 E ∣ Y ∣ < + ∞ E|Y| < + \infty E∣Y∣<+∞,这就好比,我对 g ( Y ) g(Y) g(Y)的期望估计,在X的参考下,先对X期望估计后再进行一次对Y的期望,那就是
E [ E [ g ( Y ) ∣ X ] ] = ∑ x ( ∑ z z P ( g ( Y ) = z ∣ X = x ) ) P ( X = x ) E[E[g(Y)|X]] = \sum\limits_x \left( \sum\limits_z z P(g(Y) = z|X = x) \right) P(X = x) E[E[g(Y)∣X]]=x∑(z∑zP(g(Y)=z∣X=x))P(X=x)
推导一下就可以得到相等。反过来也一样, E [ X ] = E [ E [ X ∣ Y ] ] E[X] = E[E[X|Y]] E[X]=E[E[X∣Y]], E ∣ X ∣ E|X| E∣X∣满足什么条件?请读者思考。 -
E ∣ Y ∣ < + ∞ E|Y| < + \infty E∣Y∣<+∞时,若X和Y独立,则 E ( Y ∣ X ) = E ( Y ) E(Y|X) = E(Y) E(Y∣X)=E(Y)
-
E ∣ X ∣ < + ∞ E|X| < + \infty E∣X∣<+∞时,对任意有界可测函数 ϕ ( Y ) \phi(Y) ϕ(Y),有 E ( X ϕ ( Y ) ∣ Y ) ) = ϕ ( Y ) E ( X ∣ Y ) E(X\phi(Y)|Y))=\phi(Y)E(X|Y) E(Xϕ(Y)∣Y))=ϕ(Y)E(X∣Y)
性质:
(
X
,
Y
)
(X,Y)
(X,Y)为随机变量,
E
(
∣
X
∣
2
)
<
+
∞
,
g
(
y
)
E\left(|X|^2\right)<+\infty,g(y)
E(∣X∣2)<+∞,g(y)是任意可测函数且
E
[
(
g
(
Y
)
)
2
]
<
+
∞
E\left[(g(Y))^2\right]<+\infty
E[(g(Y))2]<+∞,则
E
[
(
X
−
g
(
Y
)
)
2
]
⩾
E
[
(
X
−
E
(
X
∣
Y
)
)
2
]
.
E\left[\left(X-g(Y)\right)^2\right]\geqslant E\left[\left(X-E(X|Y)\right)^2\right].
E[(X−g(Y))2]⩾E[(X−E(X∣Y))2].
这里有一个背景,当 X ∈ L 2 ( Ω , F , P ) X \in L^2(\Omega, \mathcal{F}, P) X∈L2(Ω,F,P)时,条件期望 E [ X ∣ G ] E[X|\mathcal{G}] E[X∣G]是 X X X在由 G \mathcal{G} G-可测的 L 2 L^2 L2 随机变量构成的闭子空间 L 2 ( Ω , G , P ) L^2(\Omega, \mathcal{G}, P) L2(Ω,G,P) 上的唯一正交投影。这个投影是 L 2 ( Ω , G , P ) L^2(\Omega, \mathcal{G}, P) L2(Ω,G,P) 中对 X X X 的最佳均方逼近,即它最小化了 E [ ( X − Y ) 2 ] E[(X-Y)^2] E[(X−Y)2] 其中 Y Y Y是任意 G \mathcal{G} G-可测的 L 2 L^2 L2随机变量。画图的话可以画一个 X X X向量,一个投影,然后做个向量差,这就是 X − E ( X ∣ G ) X-E(X|\mathcal{G}) X−E(X∣G),可知 E ( X ∣ G ) ⋅ ( X − E ( X ∣ G ) ) = 0 E(X|\mathcal{G}) \cdot (X-E(X|\mathcal{G})) = 0 E(X∣G)⋅(X−E(X∣G))=0。
更一般的 ( Ω , F , P ) (\Omega, \mathscr{F},P) (Ω,F,P)简单描述一下,上面的条件概率条件, G \mathscr{G} G是 F \mathscr{F} F一个子 σ \sigma σ-域, E ( X ∣ G ) E(X|G) E(X∣G)唯一的条件是 E ( X ∣ G ) E(X|G) E(X∣G)关于 G \mathscr{G} G可测,里面有个塔式法则,简单来说就是当 H ⊂ G ⊂ F \mathscr{H} \subset \mathscr{G} \subset \mathscr{F} H⊂G⊂F且都是 F \mathscr{F} F的子 σ \sigma σ-域的时候 E ( E ( X ∣ G ) ∣ H ) = E ( X ∣ H ) E(E(X|\mathscr{G}) | \mathscr{H}) = E(X|\mathscr{H}) E(E(X∣G)∣H)=E(X∣H)
随机过程
随机过程有很多种,Poisson Process,Markov chain,Brownian motion,Martingale,Itô Calculus & integral等等,可以从状态的连续和离散划分,可以从时间的连续和离散划分,也可以根据马尔可夫的记忆性划分,总之很多很多,对金融学的读者,伊藤积分和微分至关重要,我前些日子还在听有人扯Black-Scholes模型,数学没学好也是痛苦。马尔科夫链就不说了,到处都在用,有些地方好像高中都在学这个了,绷。
随机过程是否存在有着Kolmogorov存在性定理,这里不提及。
随机过程也有诸多数字特征可以拿来使用,这里直接搬书(可以略过):
这里最重要的是相关函数,涉及到后面的平稳分布,学通信原理的读者可以注意一下。相关函数用来衡量一个随机过程在两个不同时刻的取值之间的所谓“关联程度”的函数。这个关联程度,在统计平均意义下,也就是
X
s
X_s
Xs和
X
t
X_t
Xt的关联性有多强。如果这个值很大(正或负都行),通常意味着这两个时刻的随机变量有很强的线性关系。
相关函数也和一个分布的谱密度函数成互为傅里叶正逆变换的关系。
同时注意,这里的协方差函数和原来的统计里的协方差不完全一致,能比较对的上的是互协方差函数,协方差函数本身其实是 E ( X s − E ( X s ) ) ( X t − E ( X t ) ) E(X_s - E(X_s))(X_t - E(X_t)) E(Xs−E(Xs))(Xt−E(Xt))
Poisson Process
泊松过程一类特殊的计数过程,且是连续时间马尔可夫过程(书第五章有证明)。
三大特点:
- 事件在不重叠的时间区间内发生的次数是独立的(独立增量)。
- 在任何长度为 t t t的时间区间内发生事件的次数服从泊松分布,其均值为 λ t \lambda t λt, λ \lambda λ是事件发生的平均速率,整体上称呼为强度。
- 事件之间的时间间隔服从指数分布。
接下来给出定义,给定 N T = { N ( t ) , t ≥ 0 } N_T = \{N(t), t \ge 0 \} NT={N(t),t≥0},满足三个条件:
- N T N_T NT是计数过程且 N ( 0 ) = 0 N(0) = 0 N(0)=0
- N T N_T NT是平稳独立增量过程。平稳意味着 N ( t + s ) − N ( s ) N(t+s)-N(s) N(t+s)−N(s)和 N ( t ) − N ( 0 ) N(t)-N(0) N(t)−N(0)同分布,也就是说事件发生的次数只依赖于时间区间的长度,而与区间的起始点无关。独立意味着对任意像 0 < t 1 < t 2 < . . . 0<t_1<t_2<... 0<t1<t2<...的起始点,两者之间在随机过程里的差值(比如上面的)互相独立,互不影响,就好比这个过程是无记忆的,过去的信息不会影响未来。
- ∀ 0 < s < t \forall 0<s<t ∀0<s<t,增量 N ( t ) − N ( s ) ∼ P o i ( λ ( t − s ) ) N(t)-N(s) \sim Poi(\lambda(t-s)) N(t)−N(s)∼Poi(λ(t−s))
有的地方也说明了第四个性质,Rarity or Infinitesimal Properties,即在一个极小的时间段
Δ
t
\Delta t
Δt内:恰好发生一次事件的概率近似于
λ
Δ
t
\lambda \Delta t
λΔt。即:
P
(
N
(
t
+
Δ
t
)
−
N
(
t
)
=
1
)
=
λ
Δ
t
+
o
(
Δ
t
)
P(N(t+\Delta t) - N(t) = 1) = \lambda \Delta t + o(\Delta t)
P(N(t+Δt)−N(t)=1)=λΔt+o(Δt)
发生两次或以上事件的概率可以忽略不计:
P
(
N
(
t
+
Δ
t
)
−
N
(
t
)
≥
2
)
=
o
(
Δ
t
)
P(N(t+\Delta t) - N(t) \ge 2) = o(\Delta t)
P(N(t+Δt)−N(t)≥2)=o(Δt)
其中
o
(
Δ
t
)
o(\Delta t)
o(Δt) 是高阶无穷小,即
lim
Δ
t
→
0
o
(
Δ
t
)
Δ
t
=
0
\lim\limits_{\Delta t \to 0} \dfrac{o(\Delta t)}{\Delta t} = 0
Δt→0limΔto(Δt)=0
为什么要叫泊松过程?这是因为这个随时间的,描述动态过程的随机过程是和静态的泊松分布有关系的,根据上面这个性质,完全可以写一个递推微分方程组,比如定义 P n ( t ) = P ( N ( t ) = n ) P_n(t) = P(N(t)=n) Pn(t)=P(N(t)=n),去分类讨论,这里不表。
事件间隔时间:指数分布
利用泊松过程的独立增量性,可以证明所有的间隔时间 T 1 , T 2 , T 3 , … T_1, T_2, T_3, \dots T1,T2,T3,… 都是独立同分布的,且都服从参数为 λ \lambda λ的指数分布。也就是说,如果有些问题我们不仅关心发生了多少次,还得关心下一次事件要等多久的情况。就可以用到这个。
如果要知道第n次事件发生的总共等待的时间点,可以用到伽马分布 Γ ( n , λ ) \Gamma(n, \lambda) Γ(n,λ),依然不表。
数字特征
m N ( t ) = λ t m_N(t) = \lambda t mN(t)=λt
D N ( t ) = λ t D_N(t) = \lambda t DN(t)=λt
C o v ( N ( s ) , N ( t ) ) = λ m i n { s , t } Cov(N(s), N(t)) = \lambda min\{s,t\} Cov(N(s),N(t))=λmin{s,t}
R N ( s , t ) = λ 2 s t + λ m i n { s , t } R_N(s,t) = \lambda^2 s t + \lambda min\{s,t\} RN(s,t)=λ2st+λmin{s,t}
这里只计算相关函数是怎么来的:即计算
E
[
N
(
s
)
N
(
t
)
]
E[N(s)N(t)]
E[N(s)N(t)]。这个结果会依赖于
s
s
s和
t
t
t的相对大小,不妨假设
s
≤
t
s \le t
s≤t。考虑到独立性,这里做变形:
N
(
t
)
=
N
(
s
)
+
(
N
(
t
)
−
N
(
s
)
)
N(t) = N(s) + (N(t) - N(s))
N(t)=N(s)+(N(t)−N(s))
由于这两个时间段
(
0
,
s
]
(0, s]
(0,s] 和
(
s
,
t
]
(s, t]
(s,t] 不重叠,所以随机变量
N
(
s
)
N(s)
N(s) 和
N
(
t
)
−
N
(
s
)
N(t)-N(s)
N(t)−N(s) 是相互独立的,代入到原来的期望里展开:
R
N
(
s
,
t
)
=
E
[
N
(
s
)
2
+
N
(
s
)
(
N
(
t
)
−
N
(
s
)
)
]
R_N(s, t) = E[N(s)^2 + N(s)(N(t) - N(s))]
RN(s,t)=E[N(s)2+N(s)(N(t)−N(s))]
前者,看到期望内平方就想到方差展开:
E
[
N
(
s
)
2
]
=
Var
(
N
(
s
)
)
+
(
E
[
N
(
s
)
]
)
2
=
λ
s
+
(
λ
s
)
2
=
λ
s
+
λ
2
s
2
E[N(s)^2] = \text{Var}(N(s)) + (E[N(s)])^2 = \lambda s + (\lambda s)^2 = \lambda s + \lambda^2 s^2
E[N(s)2]=Var(N(s))+(E[N(s)])2=λs+(λs)2=λs+λ2s2
后者展开:
E
[
N
(
s
)
(
N
(
t
)
−
N
(
s
)
)
]
=
(
λ
s
)
⋅
(
λ
(
t
−
s
)
)
=
λ
2
s
(
t
−
s
)
=
λ
2
s
t
−
λ
2
s
2
E[N(s)(N(t) - N(s))] = (\lambda s) \cdot (\lambda (t-s)) = \lambda^2 s(t-s) = \lambda^2 st - \lambda^2 s^2
E[N(s)(N(t)−N(s))]=(λs)⋅(λ(t−s))=λ2s(t−s)=λ2st−λ2s2
相加起来自然就是一部分答案,另一部分用
s
>
q
s > q
s>q 去计算然后可以得
m
i
n
{
s
,
t
}
min\{s,t\}
min{s,t} 了。
再提一下多元分布PDF和顺序统计量:
在
N
(
t
)
=
n
N(t) = n
N(t)=n下:
f
(
t
1
,
t
2
,
…
,
t
n
∣
N
(
t
)
=
n
)
=
{
n
!
t
n
,
0
<
t
1
<
t
2
<
⋯
<
t
n
≤
t
,
0
,
e
l
s
e
f(t_1,t_2,\dots,t_n | N(t) = n) = \begin{cases} \dfrac {n!} {t^n}, 0<t_1<t_2<\dots<t_n \le t,\\ 0, else \end{cases}
f(t1,t2,…,tn∣N(t)=n)=⎩
⎨
⎧tnn!,0<t1<t2<⋯<tn≤t,0,else
f
τ
k
(
X
∣
N
(
t
)
=
n
)
f_{\tau_k} (X|N(t)=n)
fτk(X∣N(t)=n)可从n个独立同分布的
U
(
0
,
t
)
U(0,t)
U(0,t)的随机变量的第k个顺序统计量入手:
f
=
n
!
(
k
−
1
)
!
(
n
−
k
)
!
[
F
(
x
)
]
k
−
1
[
1
−
F
(
x
)
]
n
−
k
f
(
x
)
f = \dfrac {n!} {(k-1)!(n-k)!} [F(x)]^{k-1} [1-F(x)]^{n-k}f(x)
f=(k−1)!(n−k)!n![F(x)]k−1[1−F(x)]n−kf(x)
Discrete Markov Chain
离散马尔可夫链:(为了完整,这里使用gpt给出的内容并作修正,原有笔记太过简略,需要一定基础)
对一个随机过程 { X n , n = 0 , 1 , 2 , … } \{X_n, n=0, 1, 2, \dots\} {Xn,n=0,1,2,…},如果其状态空间 S S S 是离散的,并且满足马尔可夫性 (Markov Property),则称其为离散马尔可夫链。
马尔可夫性:过程在未来的状态,只取决于当前的状态,而与过去的状态无关。用数学语言描述为:
P
(
X
(
m
+
k
)
=
i
m
+
k
∣
X
(
n
1
)
=
i
1
,
…
,
X
(
m
)
=
i
m
)
=
P
(
X
(
m
+
k
)
=
i
m
+
k
∣
X
(
m
)
=
i
m
)
P(X(m+k)=i_{m+k} | X(n_1) = i_1, \dots, X(m) = i_m) = P(X(m+k) = i_{m+k} | X(m) = i_m)
P(X(m+k)=im+k∣X(n1)=i1,…,X(m)=im)=P(X(m+k)=im+k∣X(m)=im)
其中,
i
0
,
i
1
,
…
i_0, i_1, \dots
i0,i1,… 均为状态空间
S
S
S 中的状态,
0
<
n
1
<
n
2
<
⋯
<
m
,
k
>
0
0 < n_1 < n_2 < \dots < m, k>0
0<n1<n2<⋯<m,k>0
gpt给的是一步转移概率的定义,同时用的是 X m + k X_{m+k} Xm+k这种下标的类型,这里和书一致用括号类型。
转移概率
转移概率描述了马尔可夫链从一个状态移动到另一个状态的可能性。
n步转移概率 (n-step transition probability):
p
i
j
(
k
)
(
m
)
=
P
(
X
(
m
+
k
)
=
j
∣
X
(
m
)
=
i
)
p_{ij}^{(k)} (m) = P(X(m+k)=j | X(m)=i)
pij(k)(m)=P(X(m+k)=j∣X(m)=i)
表示过程从
m
m
m时刻从
i
i
i出发的
k
k
k步转移概率。
转移概率矩阵 (Transition Probability Matrix):
由一步转移概率组成的矩阵
P
=
[
p
i
j
]
P = [p_{ij}]
P=[pij]。矩阵的第
i
i
i 行第
j
j
j 列元素为
p
i
j
p_{ij}
pij。
- p i j ≥ 0 p_{ij} \ge 0 pij≥0
- ∑ j ∈ S p i j = 1 \sum\limits_{j \in S} p_{ij} = 1 j∈S∑pij=1 (每一行元素之和为1)
Chapman-Kolmogorov方程
对于任意状态
i
,
j
∈
S
i, j \in S
i,j∈S 和任意正整数
k
,
l
>
0
k, l > 0
k,l>0,设
P
(
k
)
(
m
)
=
(
p
i
,
j
(
k
)
(
m
)
)
i
,
j
∈
S
\mathbf{P}^{(k)} (m) = (p_{i,j}^{(k)} (m))_{i,j \in S}
P(k)(m)=(pi,j(k)(m))i,j∈S为马尔科夫链
X
T
=
{
X
(
n
)
,
n
∈
N
}
X_T = \{X(n), n \in N\}
XT={X(n),n∈N}的
k
k
k步转移矩阵。有:
p
i
,
j
(
k
+
l
)
(
m
)
=
∑
k
∈
S
p
i
,
r
(
k
)
(
m
)
p
r
,
j
(
l
)
(
m
+
k
)
p_{i,j}^{(k+l)} (m) = \sum\limits_{k \in S} p_{i,r}^{(k)} (m) p_{r,j}^{(l)} (m+k)
pi,j(k+l)(m)=k∈S∑pi,r(k)(m)pr,j(l)(m+k)
矩阵形式:
P
(
k
+
l
)
(
m
)
=
P
(
k
)
(
m
)
P
(
l
)
(
m
+
k
)
\mathbf{P}^{(k+l)} (m) = \mathbf{P}^{(k)} (m) \mathbf{P}^{(l)} (m+k)
P(k+l)(m)=P(k)(m)P(l)(m+k)
直观上可以理解为从
i
i
i到
j
j
j从m时刻走
k
k
k步到
r
r
r状态再从
m
+
k
m+k
m+k时刻走
l
l
l步到
j
j
j状态,C-K方程对其中所有的可能情况进行求和。
分布向量和初始分布
初始分布向量,简称初始分布:
π
j
(
0
)
=
P
(
X
(
0
)
=
j
)
\pi_j(0) = P(X(0) = j)
πj(0)=P(X(0)=j)
知:
π
j
(
0
)
≥
0
,
∑
j
∈
S
π
j
(
0
)
=
1
\pi_j(0) \ge 0, \sum\limits_{j \in S} \pi_j(0) = 1
πj(0)≥0,j∈S∑πj(0)=1
这个还是行和。
称
π
(
0
)
=
(
π
j
(
0
)
)
j
∈
S
\bm{\pi}(0) = (\pi_j(0))_{j \in S}
π(0)=(πj(0))j∈S为马尔科夫链
X
T
X_T
XT的初始分布。
π
(
n
)
=
(
π
j
(
n
)
)
j
∈
S
\bm{\pi}(n) = (\pi_j(n))_{j \in S}
π(n)=(πj(n))j∈S为n时刻的分布向量,由于:
P
(
X
(
n
)
=
j
)
=
∑
i
∈
S
P
(
X
(
n
)
=
j
∣
X
(
0
)
=
i
)
P
(
X
(
0
)
=
i
)
P(X(n) = j) = \sum\limits_{i \in S} P(X(n) = j| X(0) = i) P(X(0) = i)
P(X(n)=j)=i∈S∑P(X(n)=j∣X(0)=i)P(X(0)=i)
故而:
π
j
(
n
)
=
∑
i
∈
S
π
i
(
0
)
p
i
,
j
(
n
)
(
0
)
\pi_j(n) = \sum\limits_{i \in S} \pi_i(0) p_{i,j}^{(n)} (0)
πj(n)=i∈S∑πi(0)pi,j(n)(0)
任意时刻的分布向量完全由初始分布及转移概率矩阵唯一确定:
π
(
n
)
=
π
(
0
)
P
(
1
)
P
(
2
)
…
\bm{\pi}(n) = \bm{\pi}(0)\mathbf{P}(1)\mathbf{P}(2)\dots
π(n)=π(0)P(1)P(2)…
离散马尔可夫链的有限维概率分布:
t
1
<
t
2
<
⋯
<
t
k
t_1 < t_2 < \dots < t_k
t1<t2<⋯<tk有:
P
(
X
(
t
1
)
=
i
1
,
X
(
t
2
)
=
i
2
,
…
,
X
(
t
n
)
=
i
n
)
=
π
i
1
(
t
1
)
p
i
1
,
i
2
(
t
2
−
t
1
)
(
t
1
)
…
p
i
k
−
1
,
i
k
(
t
k
−
t
k
−
1
)
(
t
k
−
1
)
P(X(t_1) = i_1, X(t_2) = i_2, \dots, X(t_n) = i_n) = \pi_{i_1}(t_1) p_{i_1, i_2}^{(t_2 - t_1)}(t_1) \dots p_{i_k-1, i_k}^{(t_k - t_{k-1})}(t_{k-1})
P(X(t1)=i1,X(t2)=i2,…,X(tn)=in)=πi1(t1)pi1,i2(t2−t1)(t1)…pik−1,ik(tk−tk−1)(tk−1)
时齐马尔科夫链:
P
(
X
(
m
+
k
)
=
j
∣
X
(
m
)
=
i
)
=
P
(
X
(
k
)
=
j
∣
X
(
0
)
=
i
)
=
p
i
,
j
(
k
)
P(X(m+k) = j|X(m) = i) = P(X(k) = j|X(0) = i) = p_{i,j}^{(k)}
P(X(m+k)=j∣X(m)=i)=P(X(k)=j∣X(0)=i)=pi,j(k)
整个过程不会依赖 m m m,一大特征是它的转移矩阵 P P P 是一个不随时间改变的常数矩阵,且根据C-K方程,其 n n n 步转移矩阵就是一步转移矩阵的 n n n 次幂。
下文里,马尔科夫链在不特别说明的情况下都是时齐马尔科夫链
互通和不可约
可达:如果从状态
i
i
i 出发,有正的概率经过有限步能到达状态
j
j
j,则称状态
j
j
j 从
i
i
i 可达,记作
i
→
j
i \to j
i→j。
(
∃
n
≥
0
,
s.t.
p
i
j
(
n
)
>
0
\exists n \ge 0, \text{ s.t. } p_{ij}^{(n)} > 0
∃n≥0, s.t. pij(n)>0)
互通:如果
i
→
j
i \to j
i→j 且
j
→
i
j \to i
j→i,则称状态
i
i
i 和状态
j
j
j 是互通的,记作
i
↔
j
i \leftrightarrow j
i↔j。
学过离散数学或者抽象代数的就知道等价关系,互通也就是这样的等价关系,把状态空间
S
S
S 划分为若干个互通类。
不可约:如果一个马尔可夫链的所有状态都属于同一个互通类,则称该马尔可夫链是不可约的。
也就是说,在一个不可约的马尔可夫链中,从任何一个状态出发,最终都可以到达任何其他状态。
首达概率
首达概率
f
i
j
(
n
)
f_{ij}^{(n)}
fij(n):从状态
i
i
i 出发,在第
n
n
n 步首次到达状态
j
j
j 的概率。
f
i
,
j
(
n
)
=
P
(
X
(
n
)
=
j
,
X
(
k
)
≠
j
for
1
≤
k
≤
n
−
1
∣
X
(
0
)
=
i
)
f_{i,j}^{(n)} = P(X(n)=j, X(k) \neq j \text{ for } 1 \le k \le n-1 | X(0)=i)
fi,j(n)=P(X(n)=j,X(k)=j for 1≤k≤n−1∣X(0)=i)
迟早到达概率
f
i
j
f_{ij}
fij:从状态
i
i
i 出发,迟早会到达状态
j
j
j 的概率。
f
i
j
=
∑
n
=
1
∞
f
i
,
j
(
n
)
=
P
(
∃
n
≥
1
,
s
.
t
.
X
n
=
j
∣
X
0
=
i
)
f_{ij} = \sum\limits_{n=1}^{\infty} f_{i,j}^{(n)} = P(\exists n \ge 1, s.t. X_n=j | X_0=i)
fij=n=1∑∞fi,j(n)=P(∃n≥1,s.t.Xn=j∣X0=i)
常返与非常返
这两个概念是根据从一个状态出发,是否必然会返回该状态来定义的。
常返状态:如果从状态
i
i
i 出发,必然会(概率为1)再次返回到状态
i
i
i,则称状态
i
i
i 是常返的。
f
i
i
=
1
f_{ii} = 1
fii=1
可以理解为在一个马尔科夫链中,一旦从一个状态离开,总有一个时刻会回来。如果一个状态是常返的,时刻无限的情况下,那么过程会无限次地访问它。
非常返状态:如果从状态
i
i
i 出发,有正的概率永远不再返回到状态
i
i
i,则称状态
i
i
i 是非常返的。
f
i
i
<
1
f_{ii} < 1
fii<1
和常返状态相反,一旦从一个状态离开,可能就再也回不来了。过程访问一个非常返状态的次数是有限的。举个例子,在一个马尔科夫链中,状态1可以去状态2,状态1和状态2互通,而状态2可以去互通的状态2和3但不能回来。
除了定义,还有下面的判定定理:
状态
i
i
i 是常返的
⟺
∑
n
=
1
∞
p
i
i
(
n
)
=
∞
\iff \sum\limits_{n=1}^{\infty} p_{ii}^{(n)} = \infty
⟺n=1∑∞pii(n)=∞
状态
i
i
i 是非常返的
⟺
∑
n
=
1
∞
p
i
i
(
n
)
<
∞
\iff \sum\limits_{n=1}^{\infty} p_{ii}^{(n)} < \infty
⟺n=1∑∞pii(n)<∞
在一个互通类中,如果一个状态是常返的,那么该类中所有状态都是常返的。非常返同理。
平均返回时间
对于一个状态
i
i
i,如果它是常返的 (
f
i
i
=
1
f_{ii}=1
fii=1),那么从状态
i
i
i 出发,最终会返回到状态
i
i
i。在此情况上,平均返回时间
μ
i
\mu_i
μi 指的是从状态
i
i
i 出发,首次返回到状态
i
i
i 所需的平均步数。定义如下:
μ
i
=
∑
n
=
1
+
∞
n
f
i
,
i
(
n
)
\mu_i = \sum\limits_{n=1}^{+\infty} n f_{i,i}^{(n)}
μi=n=1∑+∞nfi,i(n)
注意:
如果状态
i
i
i 是非常返的,则
f
i
i
<
1
f_{ii} < 1
fii<1,这意味着有概率永远不返回
i
i
i,此时我们通常定义
μ
i
=
∞
\mu_i = \infty
μi=∞。但哪怕状态
i
i
i 是常返的,平均返回时间也可能为无穷大。
正常返与零常返
正常返状态:
如果一个状态
i
i
i 是常返的,并且其平均返回时间
μ
i
\mu_i
μi 是有限的 (
μ
i
<
+
∞
\mu_i < +\infty
μi<+∞),则称状态
i
i
i 是正常返的。
这意味着从一个状态出发后不仅会回来,而且平均回来的时间不至于趋于无穷,这是马尔可夫链达到稳定行为的关键。
零常返状态:
如果一个状态
i
i
i 是常返的,但其平均返回时间
μ
i
\mu_i
μi 是无限的 (
μ
i
=
∞
\mu_i = \infty
μi=∞),则称状态
i
i
i 是零常返的。
从一个状态出发后保证会回来,但平均回来的时间是无穷大。
一个马尔科夫链是零常返
⟺
lim
n
→
∞
p
i
,
i
(
n
)
=
0
,
∀
i
∈
S
\iff \lim\limits_{n \to \infty} p_{i, i}^{(n)} = 0,\forall i \in S
⟺n→∞limpi,i(n)=0,∀i∈S
在一个互通类中,如果一个状态是正常返(或零常返)的,那么该类中所有状态都是正常返(或零常返)的。
周期
状态
i
i
i 的周期
d
i
d_i
di 定义为:
d
i
=
gcd
{
n
≥
1
:
p
i
i
(
n
)
>
0
}
d_i = \text{gcd}\{n \ge 1 : p_{ii}^{(n)} > 0 \}
di=gcd{n≥1:pii(n)>0}
其中
gcd
\text{gcd}
gcd 表示最大公约数。
如果一个状态的周期为
d
i
d_i
di,那么从该状态出发,只有在
d
i
,
2
d
i
,
3
d
i
,
…
d_i, 2d_i, 3d_i, \dots
di,2di,3di,… 这些步数才有可能返回到自身。
如果
d
i
=
1
d_i = 1
di=1,则称状态
i
i
i 是非周期的。
返回自身,没有特定的步数模式。
在一个互通类中,所有状态具有相同的周期。
遍历性
如果一个状态 i i i 是正常返的并且是非周期的,则称状态 i i i 是遍历的。
如果一个马尔可夫链是不可约的,并且其所有状态都是遍历的,则称该马尔可夫链是遍历的。
条件:不可约(所有状态互通) + 正常返 + 非周期
⟹
\implies
⟹ 遍历
极限分布
如果对于每个状态
j
j
j,极限
π
j
=
lim
n
→
∞
p
i
j
(
n
)
\pi_j = \lim\limits_{n \to \infty} p_{ij}^{(n)}
πj=n→∞limpij(n)
存在并且与初始状态
i
i
i 无关,则称向量
π
=
(
π
(
j
)
:
j
∈
S
)
\bm{\pi} = (\pi(j) : j \in S)
π=(π(j):j∈S) 为马尔可夫链的极限分布。
这里要求极限与初始状态
i
i
i 无关。
对于一个不可约、正常返、非周期(即遍历)的马尔可夫链,极限分布
π
\bm{\pi}
π 存在,且是一个唯一的概率分布,即
π
j
≥
0
\pi_j \ge 0
πj≥0 且
∑
j
π
j
=
1
\sum\limits_j \pi_j = 1
j∑πj=1。
其他情况不讨论。
平稳分布
如果马尔可夫链的初始状态按照这个分布选取,那么在未来的任何时刻,链处于各个状态的概率都保持不变。
一个概率分布
π
=
(
π
(
j
)
:
j
∈
S
)
\bm{\pi} = (\pi(j) : j \in S)
π=(π(j):j∈S)(即
π
j
≥
0
\pi_j \ge 0
πj≥0 且
∑
j
π
j
=
1
\sum\limits_j \pi_j = 1
j∑πj=1)如果满足:
π
P
=
π
\bm{\pi} \mathbf{P} = \bm{\pi}
πP=π
其中
P
P
P 是一步转移概率矩阵。则称
π
\bm{\pi}
π 为该马尔可夫链的平稳分布。
对于一个不可约、正常返的时齐马尔可夫链,存在唯一的平稳分布
π
\bm{\pi}
π。
平稳分布的各个分量为:
π
j
=
1
μ
j
\pi_j = \frac {1} {\mu_j}
πj=μj1
平稳分布和极限分布相等的情况:如果该链还是非周期的(满足遍历),那么这个唯一的平稳分布
π
\bm{\pi}
π 就等于其极限分布。