应用随机过程速通笔记1——条件期望,泊松过程,离散马尔可夫链

本笔记系列适应人群与文前说明

这里仅为速通笔记,文字的省略不可避免,错漏也会存在,有需要的可以对比书或者其他资料进行仔细学习!
参考书籍:熊德文《应用随机过程》第二版, 高等教育出版社
系列预计适应人群:非数专业的随机过程课速通(力学,金融学,机械学,生物学等),或者正在初步学习diffusion相关涉及SDE理论的人群,或者是数学爱好者
本文适应人群:非数专业的随机过程课速通,或者是数学爱好者
前置知识:高等数学,概率论与数理统计,傅里叶变换(谱函数涉及一点)
本文为系列一,包括条件期望和离散马尔科夫链,条件期望适合所有理工科学过概率统计的读者进行了解,系列不定时更新 😃

条件期望

( X , Y ) (X,Y) (X,Y)为任意随机变量,其中 E ∣ X ∣ < + ∞ E|X| < + \infty EX<+,定义条件期望 E ( X ∣ Y ) E(X|Y) E(XY)为满足以下两个条件的唯一随机变量

  • E ( X ∣ Y ) E(X|Y) E(XY)为随机变量Y的函数
  • 对任意有界函数 h ( y ) h(y) h(y),都有 E ( E ( X ∣ Y ) h ( Y ) ) = E ( X h ( Y ) ) E(E(X|Y)h(Y)) = E(Xh(Y)) E(E(XY)h(Y))=E(Xh(Y))

不难发现, h ( Y ) = 1 h(Y)=1 h(Y)=1时得到一个小结论 E ( E ( X ∣ Y ) ) = E ( X ) E(E(X|Y)) = E(X) E(E(XY))=E(X),注意这里的期望算子不能省的,这本质是一个积分或者求和算子,可不是什么两边同除就能解决的。

我们注意到什么?这个条件期望本身也是一个随机变量,也就是说,它和一般的能得到具体实值的期望不一样。只有我们知道了 Y Y Y的具体取值,那么才知道对 X X X的期望是什么。

性质也是有不少的:

  • 期望线性的性质。

  • 全数学期望公式 E ( g ( Y ) ) = E ( E ( g ( Y ) ∣ X ) ) E(g(Y)) = E(E(g(Y)|X)) E(g(Y))=E(E(g(Y)X)),注意 E ∣ Y ∣ < + ∞ E|Y| < + \infty EY<+,这就好比,我对 g ( Y ) g(Y) g(Y)的期望估计,在X的参考下,先对X期望估计后再进行一次对Y的期望,那就是
    E [ E [ g ( Y ) ∣ X ] ] = ∑ x ( ∑ z z P ( g ( Y ) = z ∣ X = x ) ) P ( X = x ) E[E[g(Y)|X]] = \sum\limits_x \left( \sum\limits_z z P(g(Y) = z|X = x) \right) P(X = x) E[E[g(Y)X]]=x(zzP(g(Y)=zX=x))P(X=x)
    推导一下就可以得到相等。反过来也一样, E [ X ] = E [ E [ X ∣ Y ] ] E[X] = E[E[X|Y]] E[X]=E[E[XY]] E ∣ X ∣ E|X| EX满足什么条件?请读者思考。

  • E ∣ Y ∣ < + ∞ E|Y| < + \infty EY<+时,若X和Y独立,则 E ( Y ∣ X ) = E ( Y ) E(Y|X) = E(Y) E(YX)=E(Y)

  • E ∣ X ∣ < + ∞ E|X| < + \infty EX<+时,对任意有界可测函数 ϕ ( Y ) \phi(Y) ϕ(Y),有 E ( X ϕ ( Y ) ∣ Y ) ) = ϕ ( Y ) E ( X ∣ Y ) E(X\phi(Y)|Y))=\phi(Y)E(X|Y) E((Y)Y))=ϕ(Y)E(XY)

性质:
( X , Y ) (X,Y) (X,Y)为随机变量, E ( ∣ X ∣ 2 ) < + ∞ , g ( y ) E\left(|X|^2\right)<+\infty,g(y) E(X2)<+,g(y)是任意可测函数且 E [ ( g ( Y ) ) 2 ] < + ∞ E\left[(g(Y))^2\right]<+\infty E[(g(Y))2]<+,则 E [ ( X − g ( Y ) ) 2 ] ⩾ E [ ( X − E ( X ∣ Y ) ) 2 ] . E\left[\left(X-g(Y)\right)^2\right]\geqslant E\left[\left(X-E(X|Y)\right)^2\right]. E[(Xg(Y))2]E[(XE(XY))2].

这里有一个背景,当 X ∈ L 2 ( Ω , F , P ) X \in L^2(\Omega, \mathcal{F}, P) XL2(Ω,F,P)时,条件期望 E [ X ∣ G ] E[X|\mathcal{G}] E[XG] X X X在由 G \mathcal{G} G-可测的 L 2 L^2 L2 随机变量构成的闭子空间 L 2 ( Ω , G , P ) L^2(\Omega, \mathcal{G}, P) L2(Ω,G,P) 上的唯一正交投影。这个投影是 L 2 ( Ω , G , P ) L^2(\Omega, \mathcal{G}, P) L2(Ω,G,P) 中对 X X X最佳均方逼近,即它最小化了 E [ ( X − Y ) 2 ] E[(X-Y)^2] E[(XY)2] 其中 Y Y Y是任意 G \mathcal{G} G-可测的 L 2 L^2 L2随机变量。画图的话可以画一个 X X X向量,一个投影,然后做个向量差,这就是 X − E ( X ∣ G ) X-E(X|\mathcal{G}) XE(XG),可知 E ( X ∣ G ) ⋅ ( X − E ( X ∣ G ) ) = 0 E(X|\mathcal{G}) \cdot (X-E(X|\mathcal{G})) = 0 E(XG)(XE(XG))=0

更一般的 ( Ω , F , P ) (\Omega, \mathscr{F},P) (Ω,F,P)简单描述一下,上面的条件概率条件, G \mathscr{G} G F \mathscr{F} F一个子 σ \sigma σ-域, E ( X ∣ G ) E(X|G) E(XG)唯一的条件是 E ( X ∣ G ) E(X|G) E(XG)关于 G \mathscr{G} G可测,里面有个塔式法则,简单来说就是当 H ⊂ G ⊂ F \mathscr{H} \subset \mathscr{G} \subset \mathscr{F} HGF且都是 F \mathscr{F} F的子 σ \sigma σ-域的时候 E ( E ( X ∣ G ) ∣ H ) = E ( X ∣ H ) E(E(X|\mathscr{G}) | \mathscr{H}) = E(X|\mathscr{H}) E(E(XG)H)=E(XH)

随机过程

随机过程有很多种,Poisson Process,Markov chain,Brownian motion,Martingale,Itô Calculus & integral等等,可以从状态的连续和离散划分,可以从时间的连续和离散划分,也可以根据马尔可夫的记忆性划分,总之很多很多,对金融学的读者,伊藤积分和微分至关重要,我前些日子还在听有人扯Black-Scholes模型,数学没学好也是痛苦。马尔科夫链就不说了,到处都在用,有些地方好像高中都在学这个了,绷。

随机过程是否存在有着Kolmogorov存在性定理,这里不提及。

随机过程也有诸多数字特征可以拿来使用,这里直接搬书(可以略过):
随机过程的数字特征
这里最重要的是相关函数,涉及到后面的平稳分布,学通信原理的读者可以注意一下。相关函数用来衡量一个随机过程在两个不同时刻的取值之间的所谓“关联程度”的函数。这个关联程度,在统计平均意义下,也就是 X s X_s Xs X t X_t Xt的关联性有多强。如果这个值很大(正或负都行),通常意味着这两个时刻的随机变量有很强的线性关系。

相关函数也和一个分布的谱密度函数成互为傅里叶正逆变换的关系。

同时注意,这里的协方差函数和原来的统计里的协方差不完全一致,能比较对的上的是互协方差函数,协方差函数本身其实是 E ( X s − E ( X s ) ) ( X t − E ( X t ) ) E(X_s - E(X_s))(X_t - E(X_t)) E(XsE(Xs))(XtE(Xt))

Poisson Process

泊松过程一类特殊的计数过程,且是连续时间马尔可夫过程(书第五章有证明)。

三大特点:

  • 事件在不重叠的时间区间内发生的次数是独立的(独立增量)。
  • 在任何长度为 t t t的时间区间内发生事件的次数服从泊松分布,其均值为 λ t \lambda t λt λ \lambda λ是事件发生的平均速率,整体上称呼为强度。
  • 事件之间的时间间隔服从指数分布。

接下来给出定义,给定 N T = { N ( t ) , t ≥ 0 } N_T = \{N(t), t \ge 0 \} NT={N(t),t0},满足三个条件:

  • N T N_T NT是计数过程且 N ( 0 ) = 0 N(0) = 0 N(0)=0
  • N T N_T NT是平稳独立增量过程。平稳意味着 N ( t + s ) − N ( s ) N(t+s)-N(s) N(t+s)N(s) N ( t ) − N ( 0 ) N(t)-N(0) N(t)N(0)同分布,也就是说事件发生的次数只依赖于时间区间的长度,而与区间的起始点无关。独立意味着对任意像 0 < t 1 < t 2 < . . . 0<t_1<t_2<... 0<t1<t2<...的起始点,两者之间在随机过程里的差值(比如上面的)互相独立,互不影响,就好比这个过程是无记忆的,过去的信息不会影响未来。
  • ∀ 0 < s < t \forall 0<s<t ∀0<s<t,增量 N ( t ) − N ( s ) ∼ P o i ( λ ( t − s ) ) N(t)-N(s) \sim Poi(\lambda(t-s)) N(t)N(s)Poi(λ(ts))

有的地方也说明了第四个性质,Rarity or Infinitesimal Properties,即在一个极小的时间段 Δ t \Delta t Δt内:恰好发生一次事件的概率近似于 λ Δ t \lambda \Delta t λΔt。即:
P ( N ( t + Δ t ) − N ( t ) = 1 ) = λ Δ t + o ( Δ t ) P(N(t+\Delta t) - N(t) = 1) = \lambda \Delta t + o(\Delta t) P(N(t+Δt)N(t)=1)=λΔt+o(Δt)
发生两次或以上事件的概率可以忽略不计:
P ( N ( t + Δ t ) − N ( t ) ≥ 2 ) = o ( Δ t ) P(N(t+\Delta t) - N(t) \ge 2) = o(\Delta t) P(N(t+Δt)N(t)2)=o(Δt)
其中 o ( Δ t ) o(\Delta t) o(Δt) 是高阶无穷小,即 lim ⁡ Δ t → 0 o ( Δ t ) Δ t = 0 \lim\limits_{\Delta t \to 0} \dfrac{o(\Delta t)}{\Delta t} = 0 Δt0limΔto(Δt)=0

为什么要叫泊松过程?这是因为这个随时间的,描述动态过程的随机过程是和静态的泊松分布有关系的,根据上面这个性质,完全可以写一个递推微分方程组,比如定义 P n ( t ) = P ( N ( t ) = n ) P_n(t) = P(N(t)=n) Pn(t)=P(N(t)=n),去分类讨论,这里不表。

事件间隔时间:指数分布

利用泊松过程的独立增量性,可以证明所有的间隔时间 T 1 , T 2 , T 3 , … T_1, T_2, T_3, \dots T1,T2,T3, 都是独立同分布的,且都服从参数为 λ \lambda λ的指数分布。也就是说,如果有些问题我们不仅关心发生了多少次,还得关心下一次事件要等多久的情况。就可以用到这个。

如果要知道第n次事件发生的总共等待的时间点,可以用到伽马分布 Γ ( n , λ ) \Gamma(n, \lambda) Γ(n,λ),依然不表。

数字特征

m N ( t ) = λ t m_N(t) = \lambda t mN(t)=λt

D N ( t ) = λ t D_N(t) = \lambda t DN(t)=λt

C o v ( N ( s ) , N ( t ) ) = λ m i n { s , t } Cov(N(s), N(t)) = \lambda min\{s,t\} Cov(N(s),N(t))=λmin{s,t}

R N ( s , t ) = λ 2 s t + λ m i n { s , t } R_N(s,t) = \lambda^2 s t + \lambda min\{s,t\} RN(s,t)=λ2st+λmin{s,t}

这里只计算相关函数是怎么来的:即计算 E [ N ( s ) N ( t ) ] E[N(s)N(t)] E[N(s)N(t)]。这个结果会依赖于 s s s t t t的相对大小,不妨假设 s ≤ t s \le t st。考虑到独立性,这里做变形:
N ( t ) = N ( s ) + ( N ( t ) − N ( s ) ) N(t) = N(s) + (N(t) - N(s)) N(t)=N(s)+(N(t)N(s))
由于这两个时间段 ( 0 , s ] (0, s] (0,s] ( s , t ] (s, t] (s,t] 不重叠,所以随机变量 N ( s ) N(s) N(s) N ( t ) − N ( s ) N(t)-N(s) N(t)N(s) 是相互独立的,代入到原来的期望里展开:
R N ( s , t ) = E [ N ( s ) 2 + N ( s ) ( N ( t ) − N ( s ) ) ] R_N(s, t) = E[N(s)^2 + N(s)(N(t) - N(s))] RN(s,t)=E[N(s)2+N(s)(N(t)N(s))]
前者,看到期望内平方就想到方差展开:
E [ N ( s ) 2 ] = Var ( N ( s ) ) + ( E [ N ( s ) ] ) 2 = λ s + ( λ s ) 2 = λ s + λ 2 s 2 E[N(s)^2] = \text{Var}(N(s)) + (E[N(s)])^2 = \lambda s + (\lambda s)^2 = \lambda s + \lambda^2 s^2 E[N(s)2]=Var(N(s))+(E[N(s)])2=λs+(λs)2=λs+λ2s2
后者展开:
E [ N ( s ) ( N ( t ) − N ( s ) ) ] = ( λ s ) ⋅ ( λ ( t − s ) ) = λ 2 s ( t − s ) = λ 2 s t − λ 2 s 2 E[N(s)(N(t) - N(s))] = (\lambda s) \cdot (\lambda (t-s)) = \lambda^2 s(t-s) = \lambda^2 st - \lambda^2 s^2 E[N(s)(N(t)N(s))]=(λs)(λ(ts))=λ2s(ts)=λ2stλ2s2
相加起来自然就是一部分答案,另一部分用 s > q s > q s>q 去计算然后可以得 m i n { s , t } min\{s,t\} min{s,t} 了。

再提一下多元分布PDF和顺序统计量:

N ( t ) = n N(t) = n N(t)=n下:
f ( t 1 , t 2 , … , t n ∣ N ( t ) = n ) = { n ! t n , 0 < t 1 < t 2 < ⋯ < t n ≤ t , 0 , e l s e f(t_1,t_2,\dots,t_n | N(t) = n) = \begin{cases} \dfrac {n!} {t^n}, 0<t_1<t_2<\dots<t_n \le t,\\ 0, else \end{cases} f(t1,t2,,tnN(t)=n)= tnn!,0<t1<t2<<tnt,0,else

f τ k ( X ∣ N ( t ) = n ) f_{\tau_k} (X|N(t)=n) fτk(XN(t)=n)可从n个独立同分布的 U ( 0 , t ) U(0,t) U(0,t)的随机变量的第k个顺序统计量入手:
f = n ! ( k − 1 ) ! ( n − k ) ! [ F ( x ) ] k − 1 [ 1 − F ( x ) ] n − k f ( x ) f = \dfrac {n!} {(k-1)!(n-k)!} [F(x)]^{k-1} [1-F(x)]^{n-k}f(x) f=(k1)!(nk)!n![F(x)]k1[1F(x)]nkf(x)

Discrete Markov Chain

离散马尔可夫链:(为了完整,这里使用gpt给出的内容并作修正,原有笔记太过简略,需要一定基础)

对一个随机过程 { X n , n = 0 , 1 , 2 , …   } \{X_n, n=0, 1, 2, \dots\} {Xn,n=0,1,2,},如果其状态空间 S S S 是离散的,并且满足马尔可夫性 (Markov Property),则称其为离散马尔可夫链。

马尔可夫性:过程在未来的状态,只取决于当前的状态,而与过去的状态无关。用数学语言描述为:
P ( X ( m + k ) = i m + k ∣ X ( n 1 ) = i 1 , … , X ( m ) = i m ) = P ( X ( m + k ) = i m + k ∣ X ( m ) = i m ) P(X(m+k)=i_{m+k} | X(n_1) = i_1, \dots, X(m) = i_m) = P(X(m+k) = i_{m+k} | X(m) = i_m) P(X(m+k)=im+kX(n1)=i1,,X(m)=im)=P(X(m+k)=im+kX(m)=im)
其中, i 0 , i 1 , … i_0, i_1, \dots i0,i1, 均为状态空间 S S S 中的状态, 0 < n 1 < n 2 < ⋯ < m , k > 0 0 < n_1 < n_2 < \dots < m, k>0 0<n1<n2<<m,k>0

gpt给的是一步转移概率的定义,同时用的是 X m + k X_{m+k} Xm+k这种下标的类型,这里和书一致用括号类型。

转移概率

转移概率描述了马尔可夫链从一个状态移动到另一个状态的可能性。

n步转移概率 (n-step transition probability)
p i j ( k ) ( m ) = P ( X ( m + k ) = j ∣ X ( m ) = i ) p_{ij}^{(k)} (m) = P(X(m+k)=j | X(m)=i) pij(k)(m)=P(X(m+k)=jX(m)=i)
表示过程从 m m m时刻从 i i i出发的 k k k步转移概率。

转移概率矩阵 (Transition Probability Matrix)
由一步转移概率组成的矩阵 P = [ p i j ] P = [p_{ij}] P=[pij]。矩阵的第 i i i 行第 j j j 列元素为 p i j p_{ij} pij

  • p i j ≥ 0 p_{ij} \ge 0 pij0
  • ∑ j ∈ S p i j = 1 \sum\limits_{j \in S} p_{ij} = 1 jSpij=1 (每一行元素之和为1)

Chapman-Kolmogorov方程

对于任意状态 i , j ∈ S i, j \in S i,jS 和任意正整数 k , l > 0 k, l > 0 k,l>0,设 P ( k ) ( m ) = ( p i , j ( k ) ( m ) ) i , j ∈ S \mathbf{P}^{(k)} (m) = (p_{i,j}^{(k)} (m))_{i,j \in S} P(k)(m)=(pi,j(k)(m))i,jS为马尔科夫链 X T = { X ( n ) , n ∈ N } X_T = \{X(n), n \in N\} XT={X(n),nN} k k k步转移矩阵。有:
p i , j ( k + l ) ( m ) = ∑ k ∈ S p i , r ( k ) ( m ) p r , j ( l ) ( m + k ) p_{i,j}^{(k+l)} (m) = \sum\limits_{k \in S} p_{i,r}^{(k)} (m) p_{r,j}^{(l)} (m+k) pi,j(k+l)(m)=kSpi,r(k)(m)pr,j(l)(m+k)
矩阵形式:
P ( k + l ) ( m ) = P ( k ) ( m ) P ( l ) ( m + k ) \mathbf{P}^{(k+l)} (m) = \mathbf{P}^{(k)} (m) \mathbf{P}^{(l)} (m+k) P(k+l)(m)=P(k)(m)P(l)(m+k)
直观上可以理解为从 i i i j j j从m时刻走 k k k步到 r r r状态再从 m + k m+k m+k时刻走 l l l步到 j j j状态,C-K方程对其中所有的可能情况进行求和。

分布向量和初始分布

初始分布向量,简称初始分布:
π j ( 0 ) = P ( X ( 0 ) = j ) \pi_j(0) = P(X(0) = j) πj(0)=P(X(0)=j)
知:
π j ( 0 ) ≥ 0 , ∑ j ∈ S π j ( 0 ) = 1 \pi_j(0) \ge 0, \sum\limits_{j \in S} \pi_j(0) = 1 πj(0)0,jSπj(0)=1

这个还是行和。
π ( 0 ) = ( π j ( 0 ) ) j ∈ S \bm{\pi}(0) = (\pi_j(0))_{j \in S} π(0)=(πj(0))jS为马尔科夫链 X T X_T XT初始分布
π ( n ) = ( π j ( n ) ) j ∈ S \bm{\pi}(n) = (\pi_j(n))_{j \in S} π(n)=(πj(n))jS为n时刻的分布向量,由于:
P ( X ( n ) = j ) = ∑ i ∈ S P ( X ( n ) = j ∣ X ( 0 ) = i ) P ( X ( 0 ) = i ) P(X(n) = j) = \sum\limits_{i \in S} P(X(n) = j| X(0) = i) P(X(0) = i) P(X(n)=j)=iSP(X(n)=jX(0)=i)P(X(0)=i)
故而:
π j ( n ) = ∑ i ∈ S π i ( 0 ) p i , j ( n ) ( 0 ) \pi_j(n) = \sum\limits_{i \in S} \pi_i(0) p_{i,j}^{(n)} (0) πj(n)=iSπi(0)pi,j(n)(0)
任意时刻的分布向量完全由初始分布及转移概率矩阵唯一确定:
π ( n ) = π ( 0 ) P ( 1 ) P ( 2 ) … \bm{\pi}(n) = \bm{\pi}(0)\mathbf{P}(1)\mathbf{P}(2)\dots π(n)=π(0)P(1)P(2)

离散马尔可夫链的有限维概率分布:
t 1 < t 2 < ⋯ < t k t_1 < t_2 < \dots < t_k t1<t2<<tk有:
P ( X ( t 1 ) = i 1 , X ( t 2 ) = i 2 , … , X ( t n ) = i n ) = π i 1 ( t 1 ) p i 1 , i 2 ( t 2 − t 1 ) ( t 1 ) … p i k − 1 , i k ( t k − t k − 1 ) ( t k − 1 ) P(X(t_1) = i_1, X(t_2) = i_2, \dots, X(t_n) = i_n) = \pi_{i_1}(t_1) p_{i_1, i_2}^{(t_2 - t_1)}(t_1) \dots p_{i_k-1, i_k}^{(t_k - t_{k-1})}(t_{k-1}) P(X(t1)=i1,X(t2)=i2,,X(tn)=in)=πi1(t1)pi1,i2(t2t1)(t1)pik1,ik(tktk1)(tk1)

时齐马尔科夫链:
P ( X ( m + k ) = j ∣ X ( m ) = i ) = P ( X ( k ) = j ∣ X ( 0 ) = i ) = p i , j ( k ) P(X(m+k) = j|X(m) = i) = P(X(k) = j|X(0) = i) = p_{i,j}^{(k)} P(X(m+k)=jX(m)=i)=P(X(k)=jX(0)=i)=pi,j(k)

整个过程不会依赖 m m m,一大特征是它的转移矩阵 P P P 是一个不随时间改变的常数矩阵,且根据C-K方程,其 n n n 步转移矩阵就是一步转移矩阵的 n n n 次幂。

下文里,马尔科夫链在不特别说明的情况下都是时齐马尔科夫链

互通和不可约

可达:如果从状态 i i i 出发,有正的概率经过有限步能到达状态 j j j,则称状态 j j j i i i 可达,记作 i → j i \to j ij
( ∃ n ≥ 0 ,  s.t.  p i j ( n ) > 0 \exists n \ge 0, \text{ s.t. } p_{ij}^{(n)} > 0 n0, s.t. pij(n)>0)

互通:如果 i → j i \to j ij j → i j \to i ji,则称状态 i i i 和状态 j j j 是互通的,记作 i ↔ j i \leftrightarrow j ij
学过离散数学或者抽象代数的就知道等价关系,互通也就是这样的等价关系,把状态空间 S S S 划分为若干个互通类。

不可约:如果一个马尔可夫链的所有状态都属于同一个互通类,则称该马尔可夫链是不可约的。
也就是说,在一个不可约的马尔可夫链中,从任何一个状态出发,最终都可以到达任何其他状态。

首达概率

首达概率 f i j ( n ) f_{ij}^{(n)} fij(n):从状态 i i i 出发,在第 n n n 步首次到达状态 j j j 的概率。
f i , j ( n ) = P ( X ( n ) = j , X ( k ) ≠ j  for  1 ≤ k ≤ n − 1 ∣ X ( 0 ) = i ) f_{i,j}^{(n)} = P(X(n)=j, X(k) \neq j \text{ for } 1 \le k \le n-1 | X(0)=i) fi,j(n)=P(X(n)=j,X(k)=j for 1kn1∣X(0)=i)

迟早到达概率 f i j f_{ij} fij:从状态 i i i 出发,迟早会到达状态 j j j 的概率。
f i j = ∑ n = 1 ∞ f i , j ( n ) = P ( ∃ n ≥ 1 , s . t . X n = j ∣ X 0 = i ) f_{ij} = \sum\limits_{n=1}^{\infty} f_{i,j}^{(n)} = P(\exists n \ge 1, s.t. X_n=j | X_0=i) fij=n=1fi,j(n)=P(n1,s.t.Xn=jX0=i)

常返与非常返

这两个概念是根据从一个状态出发,是否必然会返回该状态来定义的。

常返状态:如果从状态 i i i 出发,必然会(概率为1)再次返回到状态 i i i,则称状态 i i i 是常返的。
f i i = 1 f_{ii} = 1 fii=1
可以理解为在一个马尔科夫链中,一旦从一个状态离开,总有一个时刻会回来。如果一个状态是常返的,时刻无限的情况下,那么过程会无限次地访问它。

非常返状态:如果从状态 i i i 出发,有正的概率永远不再返回到状态 i i i,则称状态 i i i 是非常返的。
f i i < 1 f_{ii} < 1 fii<1
和常返状态相反,一旦从一个状态离开,可能就再也回不来了。过程访问一个非常返状态的次数是有限的。举个例子,在一个马尔科夫链中,状态1可以去状态2,状态1和状态2互通,而状态2可以去互通的状态2和3但不能回来。

除了定义,还有下面的判定定理:
状态 i i i 是常返的    ⟺    ∑ n = 1 ∞ p i i ( n ) = ∞ \iff \sum\limits_{n=1}^{\infty} p_{ii}^{(n)} = \infty n=1pii(n)=
状态 i i i 是非常返的    ⟺    ∑ n = 1 ∞ p i i ( n ) < ∞ \iff \sum\limits_{n=1}^{\infty} p_{ii}^{(n)} < \infty n=1pii(n)<

在一个互通类中,如果一个状态是常返的,那么该类中所有状态都是常返的。非常返同理。

平均返回时间

对于一个状态 i i i,如果它是常返的 ( f i i = 1 f_{ii}=1 fii=1),那么从状态 i i i 出发,最终会返回到状态 i i i。在此情况上,平均返回时间 μ i \mu_i μi 指的是从状态 i i i 出发,首次返回到状态 i i i 所需的平均步数。定义如下:
μ i = ∑ n = 1 + ∞ n f i , i ( n ) \mu_i = \sum\limits_{n=1}^{+\infty} n f_{i,i}^{(n)} μi=n=1+nfi,i(n)

注意:
如果状态 i i i 是非常返的,则 f i i < 1 f_{ii} < 1 fii<1,这意味着有概率永远不返回 i i i,此时我们通常定义 μ i = ∞ \mu_i = \infty μi=。但哪怕状态 i i i 是常返的,平均返回时间也可能为无穷大。

正常返与零常返

正常返状态:
如果一个状态 i i i 是常返的,并且其平均返回时间 μ i \mu_i μi 是有限的 ( μ i < + ∞ \mu_i < +\infty μi<+),则称状态 i i i 是正常返的。
这意味着从一个状态出发后不仅会回来,而且平均回来的时间不至于趋于无穷,这是马尔可夫链达到稳定行为的关键。

零常返状态:
如果一个状态 i i i 是常返的,但其平均返回时间 μ i \mu_i μi 是无限的 ( μ i = ∞ \mu_i = \infty μi=),则称状态 i i i 是零常返的。
从一个状态出发后保证会回来,但平均回来的时间是无穷大。
一个马尔科夫链是零常返    ⟺    lim ⁡ n → ∞ p i , i ( n ) = 0 , ∀ i ∈ S \iff \lim\limits_{n \to \infty} p_{i, i}^{(n)} = 0,\forall i \in S nlimpi,i(n)=0,iS

在一个互通类中,如果一个状态是正常返(或零常返)的,那么该类中所有状态都是正常返(或零常返)的。

周期

状态 i i i 的周期 d i d_i di 定义为:
d i = gcd { n ≥ 1 : p i i ( n ) > 0 } d_i = \text{gcd}\{n \ge 1 : p_{ii}^{(n)} > 0 \} di=gcd{n1:pii(n)>0}
其中 gcd \text{gcd} gcd 表示最大公约数。
如果一个状态的周期为 d i d_i di,那么从该状态出发,只有在 d i , 2 d i , 3 d i , … d_i, 2d_i, 3d_i, \dots di,2di,3di, 这些步数才有可能返回到自身。

如果 d i = 1 d_i = 1 di=1,则称状态 i i i 是非周期的。
返回自身,没有特定的步数模式。

在一个互通类中,所有状态具有相同的周期。

遍历性

如果一个状态 i i i 是正常返的并且是非周期的,则称状态 i i i 是遍历的。

如果一个马尔可夫链是不可约的,并且其所有状态都是遍历的,则称该马尔可夫链是遍历的。
条件:不可约(所有状态互通) + 正常返 + 非周期    ⟹    \implies 遍历

极限分布

如果对于每个状态 j j j,极限
π j = lim ⁡ n → ∞ p i j ( n ) \pi_j = \lim\limits_{n \to \infty} p_{ij}^{(n)} πj=nlimpij(n)
存在并且与初始状态 i i i 无关,则称向量 π = ( π ( j ) : j ∈ S ) \bm{\pi} = (\pi(j) : j \in S) π=(π(j):jS) 为马尔可夫链的极限分布。
这里要求极限与初始状态 i i i 无关。

对于一个不可约、正常返、非周期(即遍历)的马尔可夫链,极限分布 π \bm{\pi} π 存在,且是一个唯一的概率分布,即 π j ≥ 0 \pi_j \ge 0 πj0 ∑ j π j = 1 \sum\limits_j \pi_j = 1 jπj=1
其他情况不讨论。

平稳分布

如果马尔可夫链的初始状态按照这个分布选取,那么在未来的任何时刻,链处于各个状态的概率都保持不变。

一个概率分布 π = ( π ( j ) : j ∈ S ) \bm{\pi} = (\pi(j) : j \in S) π=(π(j):jS)(即 π j ≥ 0 \pi_j \ge 0 πj0 ∑ j π j = 1 \sum\limits_j \pi_j = 1 jπj=1)如果满足:
π P = π \bm{\pi} \mathbf{P} = \bm{\pi} πP=π
其中 P P P 是一步转移概率矩阵。则称 π \bm{\pi} π 为该马尔可夫链的平稳分布。

对于一个不可约、正常返的时齐马尔可夫链,存在唯一的平稳分布 π \bm{\pi} π
平稳分布的各个分量为: π j = 1 μ j \pi_j = \frac {1} {\mu_j} πj=μj1
平稳分布和极限分布相等的情况:如果该链还是非周期的(满足遍历),那么这个唯一的平稳分布 π \bm{\pi} π 就等于其极限分布。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值