Metropolis 采样算法

本文介绍了Metropolis 采样算法,这是一种利用马尔科夫链从复杂目标分布中获取样本的方法。首先解释了马尔科夫链的概念、转移概率矩阵和平稳分布,接着详细阐述了Metropolis 采样算法的思路、步骤和实例,展示如何通过该算法对t分布进行采样。文章还探讨了为什么选择对称分布作为基础,并提供了参考文献以深入理解MCMC算法。
部署运行你感兴趣的模型镜像


前言

Metropolis 采样算法解决的问题是:从一个复杂的目标分布获取近似的样本。


马尔科夫链

概念描述

X X 是一个随机变量,其可能的取值来自于集合Ω={s0,s1,s2,,sk1,sk} X X 在离散时刻 t的取值为Xt 。若 X X 随时间变化的转移概率仅仅依赖于其当前时刻的取值Xt ,即

P(Xt+1|[X0,X1,,Xt])=P(Xt+1|Xt) P ( X t + 1 | [ X 0 , X 1 , ⋯ , X t ] ) = P ( X t + 1 | X t )

那么随机变量 X X 随时间变化的过程是一个马尔科夫过程,X 在[0,t]时间内随时间变化生成的序列 (X0,X1,,Xt) ( X 0 , X 1 , ⋯ , X t ) 就是一个马尔科夫链。

转移概率矩阵

设随机变量 X X 在任意时刻t+1的取值为 si 的概率为 πt+1i π i t + 1 ,即 πt+1i=P(Xt+1=si) π i t + 1 = P ( X t + 1 = s i ) ,其中t为一个任意时刻。随机变量从状态 sj s j 转移到状态 si s i 的转移概率为 Pji P j i

Pji=P(Xt+1=si|Xt=sj) P j i = P ( X t + 1 = s i | X t = s j )

t 为任意时刻,那么我们可以得到 πt+1i π i t + 1 的计算公式如下:
πt+1i=j=0kP(Xt+1=si|Xt=sj)P(Xt=sj) π i t + 1 = ∑ j = 0 k P ( X t + 1 = s i | X t = s j ) ∗ P ( X t = s j )

我们注意到在上式中 P(Xt+1=si|Xt=sj)=Pji P ( X t + 1 = s i | X t = s j ) = P j i P(Xt=sj)=πtj P ( X t = s j ) = π j t ,因此上式可以写成以下形式:
πt+1i=j=0kPjiπtj π i t + 1 = ∑ j = 0 k P j i ∗ π j t

那么我们可以将随机变量 X X 在t+1时刻取值为Ω={s0,s1,s2,,sk1,sk} 的概率写为如下形式:
(πt+10,πt+11,,πt+1k)=(πt0,πt1,,πtk)P00P10Pk0P01P11Pk1P0kP11Pkk ( π 0 t + 1 , π 1 t + 1 , ⋯ , π k t + 1 ) = ( π 0 t , π 1 t , ⋯ , π k t ) ∗ ( P 00 P 01 ⋯ P 0 k P 10 P 11 ⋯ P 11 ⋮ ⋮ ⋱ ⋮ P k 0 P k 1 ⋯ P k k )

将上式右侧的矩阵记为 Ptran P t r a n ,即
Ptran=P00P10Pk0P01P11Pk1P0kP11Pkk P t r a n = ( P 00 P 01 ⋯ P 0 k P 10 P 11 ⋯ P 11 ⋮ ⋮ ⋱ ⋮ P k 0 P k 1 ⋯ P k k )

Ptran P t r a n 就是马尔科夫过程的转移概率矩阵。

平稳分布

如果一个马尔科夫过程的某个状态经过有限次状态转移后又回到自身,那么我们称这个马尔科夫过程具有周期性。如果一个马尔科夫过程存在两个状态,它们之间是互相转移的,那么我们称这个马尔科夫过程可约。若一个马尔科夫过程既没有周期性又不可约,那么这个马尔科夫过程是各态遍历的。各态遍历这个概念我个人的理解是,每个状态都有一定的概率会出现。
各态遍历的马尔科夫过程有一个重要性质:无论初始的状态概率 (π00,π01,,π0k) ( π 0 0 , π 1 0 , ⋯ , π k 0 ) 取值如何,经过足够多次的状态转移,各态遍历的马尔科夫过程会趋于一个平稳分布 πs=(πs0,πs1,,πsk) π s = ( π 0 s , π 1 s , ⋯ , π k s )

πs=limtπ0Pttran π s = lim t → ∞ π 0 ∗ P t r a n t

这时随机变量 X X Ω={s0,s1,s2,,sk1,sk} 取值的概率不再变化,而是服从平稳分布 πs π s
平稳分布满足性质: πs=πsPtran π s = π s ∗ P t r a n ,即平稳分布经过状态转移后随机变量取值的概率不变,这是当然的。
平稳分布的一个充分条件是: πiPij=πjPji π i ∗ P i j = π j ∗ P j i ,对于一个转移概率矩阵 Ptran P t r a n ,若分布 π(X) π ( X ) 满足这个条件,那么它就是 Ptran P t r a n 的平稳分布。这个条件称为 细致平稳条件

为何要用马尔科夫链

经过上述讨论,有了马尔科夫链的知识基础,我们可以思考:完成上面提出的从一个复杂的目标分布获取近似的样本的任务,马尔科夫链起到了什么作用。我们知道从比较复杂的分布中采样是困难的,如何获得目标分布的样本呢?如果我们先构造出以目标分布为平稳分布的转移概率矩阵 Ptran P t r a n ,然后通过足够多次的状态转移获得了样本序列 (X0,X1,,Xn1,Xn,) ( X 0 , X 1 , ⋯ , X n − 1 , X n , ⋯ ) ,若在第n次状态转移时马尔科夫过程收敛,这时获得的样本序列 (Xn,Xn+1,) ( X n , X n + 1 , ⋯ ) 就是从目标分布中采集到的样本,从而间接解决了问题。


Metropolis 采样算法简介

Metropolis 采样算法思路

Metropolis 采样的基本思路是,从一个已知的形式较为简单的分布中采样,并以一定的概率接受这个样本作为目标分布的近似样本。假设我们需要采集一个复杂分布 π(x) π ( x ) 的样本,转移概率矩阵 P P π(x)为平稳分布。现在我们有一个形式较简单的对称分布 θ(x) θ ( x ) (下文中会说明为什么一定要选择对称分布),转移概率矩阵 Q Q 以其为平稳分布,从θ(x|xn1)中采样得到一个候选样本 x^ x ^ ,以一定的概率选择接受或拒绝这个候选样本。一般这个接受的概率定为 α=min(1,π(x^)π(xn1)) α = m i n ( 1 , π ( x ^ ) π ( x n − 1 ) ) ,当随机生成的一个概率值小于这个指定的概率时,接受这个候选样本,即 xn=x^ x n = x ^ ,否则拒绝这个候选样本并令 xn=xn1 x n = x n − 1
从分布 θ(x|xn1) θ ( x | x n − 1 ) 中采出的样本为什么可以作为 π(x) π ( x ) 的样本的近似呢?下面给出一点理论上的支撑。 θ(x) θ ( x ) 的转移概率矩阵为 Q Q ,随机变量从状态si转移到 sj s j 的转移概率为 Qij Q i j ,随机变量从状态 si s i 转移到 sj s j 的接受概率为 αij α i j ,我们借助于 Qijαij Q i j 和 α i j 得到的转移概率 PijQijαij P i j 和 Q i j 、 α i j 有如下关系:

Pij=αijQij P i j = α i j ∗ Q i j

我们只需要保证转移概率矩阵 P P 满足细致平稳条件π(i)Pij=π(j)Pji,那么 P P 的平稳分布就是目标分布π(x),马尔科夫链收敛后的样本也就是目标分布 π(x) π ( x ) 的样本。下面证明转移概率矩阵 P P 满足细致平稳条件π(i)Pij=π(j)Pji
π(i)Pij=π(i)αijQij=π(i)min(1,π(j)π(i))Qij π ( i ) P i j = π ( i ) ∗ α i j ∗ Q i j = π ( i ) ∗ m i n ( 1 , π ( j ) π ( i ) ) ∗ Q i j

π(i)Pij=min(π(i)Qij,π(j)Qij) π ( i ) P i j = m i n ( π ( i ) ∗ Q i j , π ( j ) ∗ Q i j )

在上文中我们提到 θ(x) θ ( x ) 为对称分布,因此 Qij=Qji Q i j = Q j i 。上面的式子就变成:
π(i)Pij=min(π(i)Qji,π(j)Qji)=π(j)min(1,π(i)π(j))Qji π ( i ) P i j = m i n ( π ( i ) ∗ Q j i , π ( j ) ∗ Q j i ) = π ( j ) ∗ m i n ( 1 , π ( i ) π ( j ) ) ∗ Q j i

π(i)Pij=π(j)αjiQji=π(j)Pji π ( i ) P i j = π ( j ) ∗ α j i ∗ Q j i = π ( j ) ∗ P j i

因此转移概率矩阵 P P 的平稳分布为π(x),以上述方式获得的马尔科夫链收敛后的样本序列为目标分布 π(x) π ( x ) 的近似样本。

Metropolis 采样算法步骤

Metropolis 采样算法
step1. 初始化:t=0,随机生成一个 x0 x 0 赋值给当前的 xt x t ,迭代终止条件为 t=T
step2. 令t=t+1,从条件概率分布 θ(x|xt1) θ ( x | x t − 1 ) 中生成候选样本 x^ x ^
step3. 计算接受概率 α α α=min1π(x^)π(xt1) α = m i n ( 1 , π ( x ^ ) π ( x t − 1 ) )
step4. 从均匀分布中生成一个随机数 αt α t
step5. αtα α t ≤ α ,则接受候选样本, xt=x^ x t = x ^ ,否则,拒绝候选样本并令 xt=xt1 x t = x t − 1
step6. 若t=T,停止迭代,否则回到第2步继续迭代

算法停止迭代后,生成了样本序列 (x0,x1,,xT1,xT) ( x 0 , x 1 , ⋯ , x T − 1 , x T ) ,根据需要截取尾部的n个样本 (xTn+1,xTn+2,,xT1,xTn) ( x T − n + 1 , x T − n + 2 , ⋯ , x T − 1 , x T ⏟ n ) ,这n个样本可以近似地认为是从目标分布 π(x) π ( x ) 中采样得到的。


Metropolis 采样算法实例

下面给出利用Metropolis 采样算法对t分布进行采样的一个例子。t分布的概率密度函数为:

f(x,n)=Γ(n+12)nπΓ(n2)(1+x2n)n+12 f ( x , n ) = Γ ( n + 1 2 ) n π Γ ( n 2 ) ( 1 + x 2 n ) − n + 1 2

其中n是t分布的自由度。下图是自由度为3的t分布的概率密度函数分布图。
自由度为3的t分布
下面的例子中自由度取3,样本序列的初始值从均匀分布中随机选取,从正态分布中采集候选样本,迭代次数为10000次,取样本序列的第9001到第10000个样本作为从t分布中采集的样本的近似,并画出选取的1000个样本的分布直方图,与标准分布进行比较。

import numpy as np
from scipy.stats import uniform
from scipy.stats import norm
from scipy.stats import t
import matplotlib.pyplot as plt

# 自由度为3的t分布
def t_distribution(x):    # n=3
    p = 2/(np.sqrt(3)*np.pi*np.square(1+np.square(x)/3))
    return p

T = 10000   # 迭代次数
sigma = 1.  # 正态分布标准差
sample_x = np.zeros(T+1)
sample_x[0] = uniform.rvs(size=1)[0]   # 初始化马尔科夫链初值
for i in range (1, T+1):
    hat_x = norm.rvs(loc = sample_x[i-1], scale=sigma, size=1, random_state=None)   # 从正态分布中生成候选值
    alpha = min(1, t_distribution(hat_x[0])/t_distribution(sample_x[i-1]))  # 计算接受概率
    alpha_t = uniform.rvs(size=1)[0]  # 生成接受概率判定值
    if alpha_t <= alpha :      # 若判定值小于接受概率则接受候选值,否则拒绝候选值
        sample_x[i] = hat_x[0]
    else:
        sample_x[i] = sample_x[i-1]

fig, ax = plt.subplots(1, 1)
df = 3   # t分布的自由度为3
mean, var, skew, kurt = t.stats(df, moments='mvsk')
x = np.linspace(t.ppf(0.01, df), t.ppf(0.99, df), 100)
p1 = ax.plot(x, t.pdf(x, df), 'k-', lw=5, alpha=0.6, label='t pdf')     # pdf: Probability density function;画自由度为3的标准t分布曲线
p2 = plt.hist(sample_x[9001:], 100, normed=True, alpha=0.5, histtype='stepfilled', facecolor='red', label='sample_t')   # 画生成的马尔科夫链的标准化柱状图
plt.legend()
plt.show()

Metropolis 采样结果
由结果图可以看到,通过Metropolis采样算法采集到的样本序列可以近似地看做自由度为3的t分布的样本。


后记

在学习Metropolis 采样算法时,先后看了多篇文章,才渐渐明白了Metropolis 采样算法的原理。下面的几篇参考文献详细的阐述了MCMC算法的原理,并给出了应用实例,对于理解Metropolis 采样算法有很大帮助。


参考文献

官方教程 https://en.wikipedia.org/wiki/Markov_chain_Monte_Carlo
官方教程 https://docs.scipy.org/doc/scipy/reference/tutorial/stats.html
https://www.cnblogs.com/pinard/p/6638955.html
http://blog.youkuaiyun.com/google19890102/article/details/51755242
http://blog.youkuaiyun.com/g090909/article/details/50878066

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

评论 6
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值