机器学习-白板推导系列(八)-指数族分布

8. 指数族分布

8.1 背景

本节主要对指数族分布的概念和性质的一个小小的总结。指数族分布是一个广泛存在于机器学习研究中的分布。包括:Guassian分布、Bernoulli分布(类别分布)、二项分布(多项式分布)、泊松分布、Beta分布、Dirichlet分布、Gamma分布和Gibbs分布等。

8.1.1 指数族分布的基本形式

  1. 基本形式
    指数族分布的基本形式可以表示为:
    P ( x ∣ η ) = h ( x ) e x p { η T ϕ ( x ) − A ( η ) } . (8.1.1) \color{red}P(x|\eta )=h(x)exp\left \{\eta ^{T}\phi (x)-A(\eta )\right \}.\tag{8.1.1} P(xη)=h(x)exp{ηTϕ(x)A(η)}.(8.1.1)
    其中:

    • η \color{blue}\eta η:参数向量, η ∈ R p \eta \in \mathbb{R}^p ηRp
    • ϕ ( x ) \color{blue}\phi (x) ϕ(x):Sufficient statistic(充分统计量);
    • A ( η ) \color{blue}A(\eta) A(η):log partition function (log 配分函数)。
    • h ( x ) \color{blue}h(x) h(x):这个函数只和 x x x有关系,所以并不是很重要。

    η \eta η h ( x ) h(x) h(x)的理解比较简单,但是log partition function的理解难度比较大。所以,在这里对此函数做出一定的解释。

  2. 配分函数
    通常如果我们得到一个可以表达分布的函数 P ^ ( x ∣ θ ) \hat{P}(x|\theta ) P^(xθ)但是其积分不为 1 1 1,需要除以一个归一化因子 z z z来将其归一,这个归一化因子 z z z就是配分函数, z z z取值为 P ^ ( x ∣ θ ) \hat{P}(x|\theta ) P^(xθ)的积分。

    • P ( x ∣ θ ) = 1 z P ^ ( x ∣ θ ) P(x|\theta )=\frac{1}{z}\hat{P}(x|\theta ) P(xθ)=z1P^(xθ),则:
      ∫ P ( x ∣ θ ) d x = ∫ 1 z P ^ ( x ∣ θ ) d x ⇒ 1 = 1 z ∫ P ^ ( x ∣ θ ) d x ⇒ z = ∫ P ^ ( x ∣ θ ) d x \int P(x|\theta )\mathrm{d}x=\int \frac{1}{z}\hat{P}(x|\theta )\mathrm{d}x\\ \Rightarrow 1=\frac{1}{z}\int \hat{P}(x|\theta )\mathrm{d}x\\ \Rightarrow z=\int \hat{P}(x|\theta )\mathrm{d}x P(xθ)dx=z1P^(xθ)dx1=z1P^(xθ)dxz=P^(xθ)dx
    • 指数族函数中有关于 A ( η ) A(\eta) A(η)的配分函数的推导如下:
      p ( x ∣ η ) = h ( x ) e x p { η T ϕ ( x ) } e x p { − A ( η ) } = 1 e x p { A ( η ) } h ( x ) e x p { η T ϕ ( x ) } p(x|\eta) = h(x)exp\{ \eta^T\phi(x)\}exp\{-A(\eta)\} \\ = \frac{1}{exp\{A(\eta)\}} h(x)exp\{ \eta^T\phi(x)\} p(xη)=h(x)exp{ηTϕ(x)}exp{A(η)}=exp{A(η)}1h(x)exp{ηTϕ(x)}
      ∫ p ( x ∣ η ) d x = ∫ 1 e x p { A ( η ) } h ( x ) e x p { η T ϕ ( x ) } d x = 1 e x p { A ( η ) } = ∫ h ( x ) e x p { η T ϕ ( x ) } d x A ( η ) = log ⁡ ∫ h ( x ) e x p { η T ϕ ( x ) } d x \int p(x|\eta) dx = \int \frac{1}{exp\{A(\eta)\}} h(x)exp\{ \eta^T\phi(x)\} dx = 1 \\ exp\{A(\eta)\} = \int h(x)exp\{ \eta^T\phi(x)\} dx \\ A(\eta) = \log \int h(x)exp\{ \eta^T\phi(x)\} dx p(xη)dx=exp{A(η)}1h(x)exp{ηTϕ(x)}dx=1exp{A(η)}=h(x)exp{ηTϕ(x)}dxA(η)=logh(x)exp{ηTϕ(x)}dx
      因此 e x p { A ( η ) } exp\left \{A(\eta )\right \} exp{A(η)}就是配分函数, A ( η ) A(\eta ) A(η)就是 l o g 配 分 函 数 \color{blue}log配分函数 log

8.1.2 指数族分布的相关知识

指数族分布的相关知识,可以用下面这张图表来进行概况:
在这里插入图片描述

  1. 充分统计量
    • 充分统计量是一个有关于样本的函数, 统 计 量 可 以 完 整 的 表 示 出 数 据 集 整 体 的 特 征 \color{red}统计量可以完整的表示出数据集整体的特征 。从某种意义上说,我们可以丢弃样本数据集。
    • 以Guassian Distribution进行举例,数据集Data set为: { x 1 , x 2 , x 3 , ⋯   , x N } \{x_1,x_2,x_3,\cdots ,x_N\} {x1,x2,x3,,xN},我们只需要一组充分统计量:
      φ ( x ) = ( ∑ i = 1 N x i ∑ i = 1 N x i 2 ) . (8.1.2) \varphi(x) = \begin{pmatrix} \sum_{i=1}^Nx_i \\ \sum_{i=1}^Nx_i^2 \end{pmatrix}.\tag{8.1.2} φ(x)=(i=1Nxii=1Nxi2).(8.1.2)
      就可以反映出Guassian的所有特征 θ = ( μ , Σ ) \theta=(\mu, \Sigma) θ=(μ,Σ),因为通过上述统计量可以计算样本的均值和方差进而得到其明确的分布。
    • 充分统计量在 o n l i n e    l e a r n i n g \color{blue}online\;learning onlinelearning中的使用有很大的作用。这样可以不记录那么多的数据集,只使用少量的数据就可以估计得到数据集整体的特征,可以用来简化计算。
  2. 共轭
    • 在贝叶斯公式:
      P ( z ∣ x ) = P ( x ∣ z ) P ( z ) ∫ z P ( x ∣ z ) P ( z ) d z P(z|x)=\frac{P(x|z)P(z)} {\int _{z}P(x|z)P(z)\mathrm{d}z} P(zx)=zP(xz)P(z)dzP(xz)P(z)
      其中, p ( z ∣ x ) p(z|x) p(zx)为后验概率分布, p ( x ∣ z ) p(x|z) p(xz)为似然函数, p ( z ) p(z) p(z)为先验分布。在求解 ∫ z p ( x ∣ z ) p ( z ) d z \int_{z}p(x|z)p(z)dz zp(xz)p(z)dz时,计算难度非常大。很多时候,根本算不出来。

      有时候,就算求得了 p ( z ∣ x ) p(z|x) p(zx),也有可能因为 p ( z ∣ x ) p(z|x) p(zx)的形式过于复杂,导致 E p ( z ∣ x ) [ f ( x ) ] \mathbb{E}_{p(z|x)}[f(x)] Ep(zx)[f(x)]根本算不出来。所以,为了解决这个问题,科研人员们想了很多的办法。就有了近似推断的方法,比如, 变 分 和 采 样 \color{red}变分和采样

    • 共轭的概念是指在给定一个特殊的 似 然 ( P ( x ∣ z ) ) \color{blue}似然(P(x|z)) (P(xz))的情况下, 后 验 ( P ( z ∣ x ) ) \color{blue}后验(P(z|x)) (P(zx)) 先 验 ( P ( z ) ) \color{blue}先验(P(z)) (P(z))会有一个相同的分布形式,这也就解决了上述积分困难的问题,避免了就分母上的积分项常数,大大简化计算,举例:
      p ( z ∣ x ) ∝ p ( x ∣ z ) p ( z ) , (8.1.3) \color{red}p(z|x)\varpropto p(x|z)p(z),\tag{8.1.3} p(zx)p(xz)p(z),(8.1.3)
      如果, p ( x ∣ z ) p(x|z) p(xz)为二项分布, p ( z ) p(z) p(z)为Beta分布,那么后验分布 p ( z ∣ x ) p(z|x) p(zx)也为Beta分布。
    • 变 分 \color{red}变分 的方法,是用简单的分布来拟合一个很难计算的分布,从而计算得出 p ( z ∣ x ) p(z|x) p(zx)的近似分布形式。而 采 样 \color{red}采样 的方法,比如蒙特卡罗采样,隐马尔可夫、蒙特卡罗采样(MCMC)等,是直接来求 E p ( z ∣ x ) [ f ( x ) ] \mathbb{E}_{p(z|x)}[f(x)] Ep(zx)[f(x)],这样直接跳过了中间那一堆的过程,在强化学习中经常使用。
  3. 最大熵原理
    1. 最 大 熵 主 要 用 于 无 信 息 先 验 \color{red}最大熵主要用于无信息先验 。当给定一个限制条件的情况下,对于未知部分,我们假设它们等可能发生,但我们无法定量分析。而熵可以进行定量分析,求解最大熵,熵越大则随机性越强。

    无信息先验:
    在贝叶斯估计中,我们往往需要给先验一个参数,有如下方法:

    • 共 轭 \color{blue}共轭 :为了计算方便
    • 最 大 熵 思 想 \color{blue}最大熵思想 :从最大熵的角度给予先验的参数(无信息先验)
    • J e r r i f \color{blue}Jerrif Jerrif
  4. 广义线性模型
    指数族分布在此模型中占据重要地位。广义线性模型主要是为了解决回归分类问题,在线性模型的基础上进行扩展,有如下:
    { 线 性 组 合 w T x l i n k    f u n c t i o n → ( 激 活 函 数 ) − 1 指 数 族 分 布 : y ∣ x ∼ 指 数 族 分 布 { 线 性 回 归 : y ∣ x ∼ N ( μ , Σ ) 分 类 : y ∣ x ∼ B e r n o u l l i 泊 松 回 归 : y ∣ x ∼ P o s s i o n (8.1.4) \color{red}\left\{\begin{matrix} 线性组合w^{T}x\\ link\; function\rightarrow (激活函数)^{-1}\\ 指数族分布:y|x\sim 指数族分布\left\{\begin{matrix} 线性回归:y|x\sim N(\mu ,\Sigma )\\ 分类:y|x\sim Bernoulli\\ 泊松回归:y|x\sim Possion \end{matrix}\right. \end{matrix}\right.\tag{8.1.4} 线wTxlinkfunction()1yx线yxN(μ,Σ)yxBernoulliyxPossion(8.1.4)
  5. 概率图模型
    包括无向图等,有玻尔兹曼滤波器等。
  6. 变分推断
    变分推断在指数族分布占据重要地位。若其中的分布满足指数族分布,则会使变分推断大大简化。

8.2 高斯分布的指数族形式

本节的主要是将高斯函数的形式转换为指数族分布的通用表达形式。

8.2.1 概述

  1. 指数族分部形式
    上一节给出了指数族分布的统一表达形式:
    p ( x ∣ y ) = h ( x ) e x p { η T ϕ ( x ) − A ( η ) } . (8.2.1) \color{red}p(x|y)=h(x)exp\left\{ \eta^T\phi(x)-A(\eta) \right\}.\tag{8.2.1} p(xy)=h(x)exp{ηTϕ(x)A(η)}.(8.2.1)
    • η \eta η:参数向量parameter, η ∈ R p \eta \in \mathbb{R}^p ηRp
    • A ( η ) A(\eta) A(η):log partition function (对数配分函数)。
    • ϕ ( x ) \phi(x) ϕ(x):sufficient statistics magnitude(充分统计量)。
  2. 高斯分布的概率密度函数
    高斯分布的概率密度函数可表示为:
    p ( x ∣ μ , σ 2 ) = 1 2 π σ e x p { − ( x − μ ) 2 σ 2 } . (8.2.2) \color{red}p(x|\mu,\sigma^2) = \frac{1}{\sqrt{2\pi}\sigma}exp\left\{ -\frac{(x-\mu)^2}{\sigma^2} \right\}.\tag{8.2.2} p(xμ,σ2)=2π σ1exp{σ2(xμ)2}.(8.2.2)
    本节将高斯分布转换为指数族分布的形式( θ = ( μ , σ 2 ) \theta =(\mu, \sigma^2) θ=(μ,σ2)).

8.2.2 转换过程

对公式(8.2.2)进行转换:
P ( x ∣ θ ) = 1 2 π σ exp ⁡ { − ( x − μ ) 2 2 σ 2 } = 1 2 π σ 2 exp ⁡ { − 1 2 σ 2 ( x − μ ) 2 } = exp ⁡ ( log ⁡ ( 2 π σ 2 ) − 1 2 ) exp ⁡ { − 1 2 σ 2 ( x 2 − 2 μ x + μ 2 ) } = exp ⁡ { − 1 2 σ 2 ( x 2 − 2 μ x ) − μ 2 2 σ 2 − 1 2 log ⁡ ( 2 π σ 2 ) } = exp ⁡ { ( − 1 2 σ 2 μ σ 2 ) ( x 2 x ) − ( μ 2 2 σ 2 + 1 2 log ⁡ ( 2 π σ 2 ) ) } = exp ⁡ { ( μ σ 2 − 1 2 σ 2 ) ⏟ η T ( x x 2 ) ⏟ ϕ ( x ) − ( μ 2 2 σ 2 + 1 2 log ⁡ ( 2 π σ 2 ) ) ⏟ A ( η ) } . (8.2.3) \begin{array}{ll}P(x|\theta)&={1\over\sqrt{2\pi}\sigma}\exp\{ -{(x-\mu)^2\over 2\sigma^2}\} ={1\over\sqrt{2\pi \sigma^2}}\exp\{ -{1\over 2\sigma^2} (x-\mu)^2\}\\ &=\exp(\log(2\pi \sigma^2)^{-{1\over 2}})\exp\{ -{1\over 2\sigma^2} (x^2-2\mu x+\mu^2)\}\\ &=\exp\{-{1\over 2\sigma^2}(x^2-2\mu x)-{\mu^2 \over 2\sigma^2}-{1\over2}\log(2\pi\sigma^2)\}\\ &=\exp\{ \begin{pmatrix}-{1\over 2\sigma^2}&{\mu\over \sigma^2} \end{pmatrix} \begin{pmatrix}x^2 \\ x\end{pmatrix}-({\mu^2 \over 2\sigma^2}+{1\over2}\log(2\pi\sigma^2))\}\\ &=\exp\{ \color{red}{\underbrace{\begin{pmatrix}{\mu\over \sigma^2} &-{1\over 2\sigma^2}\end{pmatrix} }_{\eta^T} } \color{blue}{\underbrace{\begin{pmatrix}x \\ x^2\end{pmatrix}}_{\phi(x)}}-\color{green}{\underbrace{ ({\mu^2 \over 2\sigma^2}+{1\over2}\log(2\pi\sigma^2)) }_{A(\eta)}}\}\end{array} .\tag{8.2.3} P(xθ)=2π σ1exp{2σ2(xμ)2}=2πσ2 1exp{2σ21(xμ)2}=exp(log(2πσ2)21)exp{2σ21(x22μx+μ2)}=exp{2σ21(x22μx)2σ2μ221log(2πσ2)}=exp{(2σ21σ2μ)(x2x)(2σ2μ2+21log(2πσ2))}=exp{ηT (σ2μ2σ21)ϕ(x) (xx2)A(η) (2σ2μ2+21log(2πσ2))}.(8.2.3)
可得:
- ϕ ( x ) = ( x x 2 ) \phi(x)= \begin{pmatrix} x \\ x^2 \end{pmatrix} ϕ(x)=(xx2)
- η = ( η 1 η 2 ) = ( μ σ 2 − 1 2 σ 2 ) ⟹ { η 1 = μ σ 2 η 2 = − 1 2 σ 2 ⟹ { μ = − η 1 2 η 2 σ 2 = − 1 2 η 2 (8.2.4) \eta=\begin{pmatrix}\eta_1 \\\eta_2\end{pmatrix} =\begin{pmatrix}\frac{\mu}{\sigma^2} \\-\frac{1}{2\sigma^2} \end{pmatrix} \Longrightarrow \left\{ \begin{array}{ll} \eta_1 = \frac{\mu}{\sigma^2} & \\ \eta_2 = -\frac{1}{2\sigma^2} &\end{array}\right.\Longrightarrow\left\{\begin{array}{ll}\mu = -\frac{\eta_1}{2\eta_2} & \\\sigma^2 = -\frac{1}{2\eta_2} &\end{array}\right.\tag{8.2.4} η=(η1η2)=(σ2μ2σ21){η1=σ2μη2=2σ21{μ=2η2η1σ2=2η21(8.2.4)
- 将 η \eta η代入 A ( η ) A(\eta ) A(η)可以得到如下结果:
A ( η ) = − η 1 2 4 η 2 + 1 2 l o g ( 2 π ⋅ − 1 2 η 2 ) = η 1 2 4 η 2 + 1 2 l o g ( − π 2 η 2 ) . (8.2.5) A(\eta )=-\frac{\eta _{1}^{2}}{4\eta _{2}}+\frac{1}{2}log(2\pi \cdot -\frac{1}{2\eta _{2}})\\ =\frac{\eta _{1}^{2}}{4\eta _{2}}+\frac{1}{2}log(-\frac{\pi }{2\eta _{2}}).\tag{8.2.5} A(η)=4η2η12+21log(2π2η21)=4η2η12+21log(2η2π).(8.2.5)

由此就将高斯分布整理成了指数族分布的形式:
P ( x ∣ θ ) = h ( x ) e x p { η T ϕ ( x ) − A ( η ) } h ( x ) = 1 ;    η = ( η 1 η 2 ) = ( μ σ 2 − 1 2 σ 2 ) ;    ϕ ( x ) = ( x x 2 ) ;    A ( η ) = η 1 2 4 η 2 + 1 2 l o g ( − π 2 η 2 ) P(x|\theta )=h(x)exp\left \{\eta ^{T}\phi (x)-A(\eta )\right \} \\ h(x)=1;\; \eta =\begin{pmatrix} \eta _{1}\\ \eta _{2} \end{pmatrix}=\begin{pmatrix} \frac{\mu }{\sigma ^{2}}\\ -\frac{1}{2\sigma ^{2}} \end{pmatrix};\; \phi (x)=\begin{pmatrix} x\\ x^{2} \end{pmatrix};\; A(\eta )=\frac{\eta _{1}^{2}}{4\eta _{2}}+\frac{1}{2}log(-\frac{\pi }{2\eta _{2}}) P(xθ)=h(x)exp{ηTϕ(x)A(η)}h(x)=1;η=(η1η2)=(σ2μ2σ21);ϕ(x)=(xx2);A(η)=4η2η12+21log(2η2π)


8.3 对数配分函数与充分统计量的关系

  1. 问题提出
    指数族分布的基本形式:
    P ( x ∣ η ) = h ( x ) e x p { η T ϕ ( x ) − A ( η ) } = 1 e x p { A ( η ) } h ( x ) e x p { η T ϕ ( x ) } . (8.3.1) P(x|\eta )=h(x)exp\left \{\eta ^{T}\phi (x)-A(\eta )\right \}\\ =\frac{1}{exp\left \{A(\eta )\right \}}h(x)exp\left \{\eta ^{T}\phi (x)\right \}.\tag{8.3.1} P(xη)=h(x)exp{ηTϕ(x)A(η)}=exp{A(η)}1h(x)exp{ηTϕ(x)}.(8.3.1)
    • η \eta η:参数向量parameter, η ∈ R p \eta \in \mathbb{R}^p ηRp
    • A ( η ) A(\eta) A(η):log partition function (对数配分函数)。
    • ϕ ( x ) \phi(x) ϕ(x):sufficient statistics magnitude(充分统计量)。

    思路:

    1. 若将指数族分布看作一个函数: f ( x , η ) = h ( x ) exp ⁡ ( η T ϕ ( x ) − A ( η ) ) f(x,\eta)=h(x)\exp(\eta^T\phi(x)-A(\eta)) f(x,η)=h(x)exp(ηTϕ(x)A(η))那么对数配分函数 A ( η ) A(\eta) A(η)与充分统计量 ϕ ( x ) \phi(x) ϕ(x)没什么关系;
    2. 但是将其看作概率密度函数 P ( x ∣ η ) = h ( x ) exp ⁡ ( η T ϕ ( x ) − A ( η ) ) P(x|\eta) = h(x)\exp(\eta^T\phi(x)-A(\eta)) P(xη)=h(x)exp(ηTϕ(x)A(η)),那么由概率密度公式 ∫ x P ( x ∣ η ) d x = 1 可 导 出 一 定 的 关 系 \color{red}\int_x P(x|\eta) dx= 1可导出一定的关系 xP(xη)dx=1
  2. 关系导出1
    由前面介绍的 A ( η ) = η 1 2 4 η 2 + 1 2 l o g ( − π 2 η 2 ) A(\eta )=\frac{\eta _{1}^{2}}{4\eta _{2}}+\frac{1}{2}log(-\frac{\pi }{2\eta _{2}}) A(η)=4η2η12+21log(2η2π)可知配分函数:
    P ( x ∣ η ) exp ⁡ ( A ( η ) ) = h ( x ) exp ⁡ ( η T ϕ ( x ) ) ∫ x P ( x ∣ η ) exp ⁡ ( A ( η ) ) d x = ∫ x h ( x ) exp ⁡ ( η T ϕ ( x ) ) d x exp ⁡ ( A ( η ) ) = ∫ x h ( x ) exp ⁡ ( η T ϕ ( x ) ) d x . (8.3.2) P(x|\eta)\exp(A(\eta))=h(x)\exp(\eta^T\phi(x))\\ \int_x P(x|\eta)\exp(A(\eta))dx=\int_x h(x)\exp(\eta^T\phi(x))dx\\ \exp(A(\eta))=\int_x h(x)\exp(\eta^T\phi(x))dx.\tag{8.3.2} P(xη)exp(A(η))=h(x)exp(ηTϕ(x))xP(xη)exp(A(η))dx=xh(x)exp(ηTϕ(x))dxexp(A(η))=xh(x)exp(ηTϕ(x))dx.(8.3.2)
    接着两边求导:
    e x p { A ( η ) } = ∫ h ( x ) e x p { η T ϕ ( x ) } d x ⇒ ∂ e x p { A ( η ) } ∂ η = ∂ ( ∫ h ( x ) e x p { η T ϕ ( x ) } d x ) ∂ η ⇒ e x p { A ( η ) } A ′ ( η ) = ∫ h ( x ) e x p { η T ϕ ( x ) } ϕ ( x ) d x ⇒ A ′ ( η ) = ∫ h ( x ) e x p { η T ϕ ( x ) } ϕ ( x ) d x e x p { A ( η ) } = ∫ h ( x ) e x p { η T ϕ ( x ) − A ( η ) } ⏟ P ( x ∣ η ) ϕ ( x ) d x . (8.3.3) exp\left \{A(\eta )\right \}=\int h(x)exp\left \{\eta ^{T}\phi (x)\right \}\mathrm{d}x\\ \Rightarrow \frac{\partial exp\left \{A(\eta )\right \}}{\partial \eta }=\frac{\partial (\int h(x)exp\left \{\eta ^{T}\phi (x)\right \}\mathrm{d}x)}{\partial \eta }\\ \Rightarrow exp\left \{A(\eta )\right \}A^{'}(\eta )=\int h(x)exp\left \{\eta ^{T}\phi (x)\right \}\phi (x)\mathrm{d}x\\ \Rightarrow A^{'}(\eta )=\frac{\int h(x)exp\left \{\eta ^{T}\phi (x)\right \}\phi (x)\mathrm{d}x}{exp\left \{A(\eta )\right \}}\\ =\int \underset{P(x|\eta )}{\underbrace{h(x)exp\left \{\eta ^{T}\phi (x)-A(\eta )\right \}}}\phi (x)\mathrm{d}x.\tag{8.3.3} exp{A(η)}=h(x)exp{ηTϕ(x)}dxηexp{A(η)}=η(h(x)exp{ηTϕ(x)}dx)exp{A(η)}A(η)=h(x)exp{ηTϕ(x)}ϕ(x)dxA(η)=exp{A(η)}h(x)exp{ηTϕ(x)}ϕ(x)dx=P(xη) h(x)exp{ηTϕ(x)A(η)}ϕ(x)dx.(8.3.3)
    A ′ ( η ) = ∫ P ( x ∣ η ) ϕ ( x ) d x = E P ( x ∣ η ) [ ϕ ( x ) ] A'(\eta)=\int P(x|\eta )\phi (x)\mathrm{d}x =E_{P(x|\eta )}[\phi (x)] A(η)=P(xη)ϕ(x)dx=EP(xη)[ϕ(x)]
    因此: A ′ ( η ) = E x ∼ p ( x ∣ η ) [ ϕ ( x ) ] . (8.3.4) \color{red}A'(\eta) = \mathbb{E}_{x \sim p(x|\eta)}[\phi(x)].\tag{8.3.4} A(η)=Exp(xη)[ϕ(x)].(8.3.4)
  3. 关系导出2
    类似地,继续对 A ( η ) A(\eta ) A(η)求二阶导数:
    A ′ ′ ( η ) = ∂ ( ∫ h ( x ) e x p { η T ϕ ( x ) − A ( η ) } ϕ ( x ) d x ) ∂ η = ∫ h ( x ) e x p { η T ϕ ( x ) − A ( η ) } ⏟ P ( x ∣ η ) ( ϕ ( x ) − A ′ ( η ) ) ϕ ( x ) d x = ∫ P ( x ∣ η ) ( ϕ ( x ) − E P ( x ∣ η ) [ ϕ ( x ) ] ) ϕ ( x ) d x = ∫ P ( x ∣ η ) ϕ 2 ( x ) − E P ( x ∣ η ) [ ϕ ( x ) ] P ( x ∣ η ) ϕ ( x ) d x = ∫ P ( x ∣ η ) ϕ 2 ( x ) d x − E P ( x ∣ η ) [ ϕ ( x ) ] ∫ P ( x ∣ η ) ϕ ( x ) d x = E P ( x ∣ η ) [ ϕ 2 ( x ) ] − E P ( x ∣ η ) 2 [ ϕ ( x ) ] = V a r P ( x ∣ η ) [ ϕ ( x ) ] \begin{array}{ll}A^{''}(\eta )&=\frac{\partial (\int h(x)exp\left \{\eta ^{T}\phi (x)-A(\eta )\right \}\phi (x)\mathrm{d}x)}{\partial \eta }\\ &=\int \underset{P(x|\eta )}{\underbrace{h(x)exp\left \{\eta ^{T}\phi (x)-A(\eta )\right \}}}(\phi (x)-A^{'}(\eta ))\phi (x)\mathrm{d}x\\ &=\int P(x|\eta )(\phi (x)-E_{P(x|\eta )}[\phi (x)])\phi (x)\mathrm{d}x\\ &=\int P(x|\eta )\phi ^{2}(x)-E_{P(x|\eta )}[\phi (x)]P(x|\eta )\phi (x)\mathrm{d}x\\ &=\int P(x|\eta )\phi ^{2}(x)\mathrm{d}x-E_{P(x|\eta )}[\phi (x)]\int P(x|\eta )\phi (x)\mathrm{d}x\\ &=E_{P(x|\eta )}[\phi ^{2}(x)]-E_{P(x|\eta )}^{2}[\phi (x)] =Var_{P(x|\eta )}[\phi (x)]\end{array} A(η)=η(h(x)exp{ηTϕ(x)A(η)}ϕ(x)dx)=P(xη) h(x)exp{ηTϕ(x)A(η)}(ϕ(x)A(η))ϕ(x)dx=P(xη)(ϕ(x)EP(xη)[ϕ(x)])ϕ(x)dx=P(xη)ϕ2(x)EP(xη)[ϕ(x)]P(xη)ϕ(x)dx=P(xη)ϕ2(x)dxEP(xη)[ϕ(x)]P(xη)ϕ(x)dx=EP(xη)[ϕ2(x)]EP(xη)2[ϕ(x)]=VarP(xη)[ϕ(x)]
    所以 A ′ ′ ( η ) = V a r P ( x ∣ η ) [ ϕ ( x ) ] . (8.3.5) \color{red}A^{''}(\eta )=Var_{P(x|\eta )}[\phi (x)].\tag{8.3.5} A(η)=VarP(xη)[ϕ(x)].(8.3.5)
    由于方差总是恒大于等于零的,于是有 A ′ ′ ( η ) ≥ 0 A''(\eta)\geq 0 A(η)0。所以,由此得出 A ( η ) A(\eta) A(η)是一个凸函数。并且,由 E x ∼ p ( x ∣ η ) [ ϕ ( x ) ] \mathbb{E}_{x \sim p(x|\eta)}[\phi(x)] Exp(xη)[ϕ(x)] V a r x ∼ p ( x ∣ η ) [ ϕ ( x ) ] Var_{x \sim p(x|\eta)}[\phi(x)] Varxp(xη)[ϕ(x)]就可以成功的求解得到 A ( η ) A(\eta) A(η)函数。那么我们做进一步思考,知道了 E [ x ] \mathbb{E}[x] E[x] E [ x 2 ] \mathbb{E}[x^2] E[x2],我们就可以得到所有想要的信息。那么:
    E [ ϕ ( x ) ] = ( E [ x ] E [ x 2 ] ) . (8.3.6) \color{red}\mathbb{E}[\phi(x)]=\begin{pmatrix}\mathbb{E}[x] \\\mathbb{E}[x^2]\end{pmatrix}.\tag{8.3.6} E[ϕ(x)]=(E[x]E[x2]).(8.3.6)

总结: 对 数 分 配 函 数 的 一 阶 导 数 为 充 分 统 计 量 的 均 值 , 对 数 分 配 函 数 的 二 阶 导 数 为 充 分 统 计 量 的 方 差 。 \color{red}对数分配函数的一阶导数为充分统计量的均值,对数分配函数的二阶导数为充分统计量的方差。


8.4 极大似然估计与充分统计量

上一节的推导都是在无样本条件下进行的,在有样本的情况下我们也可以通过极大似然估计法来获得一些特定的关系,假设有如下数据:
D = { x 1 , x 2 , ⋯   , x N } D=\left \{x_{1},x_{2},\cdots ,x_{N}\right \} D={x1,x2,,xN}
使用极大似然估计法求解 η \eta η
η M L E = a r g m a x η    l o g P ( D ∣ η ) = a r g m a x η    l o g ∏ i = 1 N P ( x i ∣ η ) = a r g m a x η ∑ i = 1 N l o g P ( x i ∣ η ) = a r g m a x η ∑ i = 1 N l o g [ h ( x i ) e x p { η T ϕ ( x i ) − A ( η ) } ] = a r g m a x η ∑ i = 1 N [ l o g    h ( x i ) ⏟ 与 η 无 关 + η T ϕ ( x i ) − A ( η ) ] = a r g m a x η ∑ i = 1 N [ η T ϕ ( x i ) − A ( η ) ] \begin{array}{ll}\eta _{MLE}&=\underset{\eta }{argmax}\; logP(D|\eta )\\ &=\underset{\eta }{argmax}\; log\prod_{i=1}^{N}P(x_{i}|\eta )\\ &=\underset{\eta }{argmax}\sum_{i=1}^{N}logP(x_{i}|\eta )\\ &=\underset{\eta }{argmax}\sum_{i=1}^{N}log[h(x_{i})exp\left \{\eta ^{T}\phi (x_{i})-A(\eta )\right \}]\\ &=\underset{\eta }{argmax}\sum_{i=1}^{N}[\underset{与\eta 无关}{\underbrace{log\; h(x_{i})}}+\eta ^{T}\phi (x_{i})-A(\eta )]\\ &=\underset{\eta }{argmax}\sum_{i=1}^{N}[\eta ^{T}\phi (x_{i})-A(\eta )]\end{array} ηMLE=ηargmaxlogP(Dη)=ηargmaxlogi=1NP(xiη)=ηargmaxi=1NlogP(xiη)=ηargmaxi=1Nlog[h(xi)exp{ηTϕ(xi)A(η)}]=ηargmaxi=1N[η logh(xi)+ηTϕ(xi)A(η)]=ηargmaxi=1N[ηTϕ(xi)A(η)]
∂ ∑ i = 1 N η T ϕ ( x ) − N A ( η ) ∂ η = 0 {\partial\sum_{i=1}^{N}\eta^T\phi(x)-NA(\eta) \over \partial \eta}=0 ηi=1NηTϕ(x)NA(η)=0,则有:
∂ ∑ i = 1 N [ η T ϕ ( x i ) − A ( η ) ] ∂ η = ∑ i = 1 N ∂ [ η T ϕ ( x i ) − A ( η ) ] ∂ η = ∑ i = 1 N [ ϕ ( x i ) − A ′ ( η ) ] = ∑ i = 1 N ϕ ( x i ) − N A ′ ( η ) = 0 ⇒ A ′ ( η M L E ) = 1 N ∑ i = 1 N ϕ ( x i ) . (8.4.1) \begin{array}{ll}\frac{\partial \sum_{i=1}^{N}[\eta ^{T}\phi (x_{i})-A(\eta )]}{\partial \eta } &=\sum_{i=1}^{N}\frac{\partial [\eta ^{T}\phi (x_{i})-A(\eta )]}{\partial \eta }\\ &=\sum_{i=1}^{N}[\phi (x_{i})-A^{'}(\eta )] =\sum_{i=1}^{N}\phi (x_{i})-NA^{'}(\eta ) =0\\ &\color{red}\Rightarrow A^{'}(\eta _{MLE})=\frac{1}{N}\sum_{i=1}^{N}\phi (x_{i})\end{array}.\tag{8.4.1} ηi=1N[ηTϕ(xi)A(η)]=i=1Nη[ηTϕ(xi)A(η)]=i=1N[ϕ(xi)A(η)]=i=1Nϕ(xi)NA(η)=0A(ηMLE)=N1i=1Nϕ(xi).(8.4.1)
η M L E = A ( − 1 ) ′ ( η ) \eta_{MLE}=A^{(-1)} {'}(\eta) ηMLE=A(1)(η)
其中 A ( − 1 ) ′ A^{(-1)} {'} A(1)表示 A ′ A' A的反函数。
总结

  • η M L E \eta _{MLE} ηMLE就可以通过求 A ′ ( η ) A^{'}(\eta ) A(η)的反函数求出来。这说明 ϕ ( x i ) \phi (x_{i}) ϕ(xi)是充分统计量,因为只需要记录 1 N ∑ i = 1 N ϕ ( x i ) \frac{1} {N}\sum_{i=1}^{N}\phi (x_{i}) N1i=1Nϕ(xi)这一个值就可以求出 η \eta η,进而通过 η \eta η求出所有的参数。
  • 可以直接通过 ϕ ( x ) \phi(x) ϕ(x)求出,因此 ϕ ( x ) \phi(x) ϕ(x)称为充分统计量。

8.5 最大熵角度

8.5.1 概念

  1. 信息量
    设一个事件发生的概率为 p p p,那么他的信息量是 log ⁡ 1 p = − log ⁡ p \log {1\over p}=-\log p logp1=logp ,其信息量与概率成反比。信息量:
    信 息 量 : − log ⁡ p . (8.5.1) \color{red}信息量:-\log p.\tag{8.5.1} logp.(8.5.1)
  • 熵是随机变量不确定性的度量, 不 确 定 性 越 大 , 熵 值 就 越 大 \color{blue}不确定性越大,熵值就越大 ;若随机变量退化成定值,熵为0。均匀分布是“最不确定”的分布。
  • 信息量的期望便是熵:
    H [ P ] = E [ − l o g    p ( x ) ] = ∫ − p ( x ) l o g    p ( x ) d x ( 连 续 ) H [ P ] = E [ − l o g    p ( x ) ] = − ∑ i = 1 N p ( x ) l o g    p ( x ) ( 离 散 ) . (8.5.2) \color{red}H[P]=E[-log\; p(x)]=\int -p(x)log\; p(x)\mathrm{d}x(连续)\\ H[P]=E[-log\; p(x)]=-\sum_{i=1}^{N}p(x)log\; p(x)(离散).\tag{8.5.2} H[P]=E[logp(x)]=p(x)logp(x)dx()H[P]=E[logp(x)]=i=1Np(x)logp(x)().(8.5.2)
  • 对于熵有很多种,比如分类问题常用的交叉熵,我们本节只讨论最大熵。最大熵就是指事件的等可能,当我们对事件完全不了解时,一切都是随机的,那么就是等可能的。
    最 大 熵 ⇔ 等 可 能 最大熵\Leftrightarrow 等可能

8.5.2 离散情况下的最大熵

  1. 假设x是离散的,其分布如下:
    x12k
    P p 1 p_1 p1 p 2 p_2 p2 p k p_k pk
    则最大熵可以表示为: H [ p ] = − ∑ x p ( x ) log ⁡ p ( x ) H[p]=-\sum_{x}p(x)\log p(x) H[p]=xp(x)logp(x)
  2. 优化问题
    通过求解以下约束优化问题可以求得使得离散情况下熵最大的分布:
    { m a x    H [ P ] = m a x − ∑ i = 1 k p i l o g    p i s . t .    ∑ i = 1 k p i = 1 ⇔ { m i n ∑ i = 1 k p i l o g    p i s . t .    ∑ i = 1 k p i = 1 (8.5.3) \left\{\begin{matrix} max\; H[P]=max-\sum_{i=1}^{k}p_{i}log\; p_{i}\\ s.t.\; \sum_{i=1}^{k}p_{i}=1 \end{matrix}\right.\Leftrightarrow \left\{\begin{matrix} min\sum_{i=1}^{k}p_{i}log\; p_{i}\\ s.t.\; \sum_{i=1}^{k}p_{i}=1 \end{matrix}\right.\tag{8.5.3} {maxH[P]=maxi=1kpilogpis.t.i=1kpi=1{mini=1kpilogpis.t.i=1kpi=1(8.5.3)
    实际上也就是求 p i ^ = arg min ⁡ − H ( p ( x ) ) \hat{p_i} = \mathop{\argmin} -H(p(x)) pi^=argminH(p(x)),其中 p = ( p 1 p 2 ⋯ p k ) T p=\begin{pmatrix} p_1 & p_2 & \cdots & p_k \end{pmatrix}^T p=(p1p2pk)T。我们使用拉格朗日乘子法来求带约束的方程的极值。定义损失函数为:
    L ( P , λ ) = ∑ i = 1 k p i l o g    p i + λ ( 1 − ∑ i = 1 k p i ) . (8.5.4) L(P,\lambda )=\sum_{i=1}^{k}p_{i}log\; p_{i}+\lambda (1-\sum_{i=1}^{k}p_{i}).\tag{8.5.4} L(P,λ)=i=1kpilogpi+λ(1i=1kpi).(8.5.4)
  3. 求解优化问题
    p i ^ \hat{p_i} pi^的求解:
    ∂ L ∂ p i = l o g    p i + p i 1 p i − λ = l o g    p i + 1 − λ = 0 ⇒ p ^ i = e x p ( λ − 1 ) . (8.5.5) \frac{\partial L}{\partial p_{i}}=log\; p_{i}+p_{i}\frac{1}{p_{i}}-\lambda =log\; p_{i}+1-\lambda =0\\ \Rightarrow \hat{p}_{i}=exp(\lambda -1).\tag{8.5.5} piL=logpi+pipi1λ=logpi+1λ=0p^i=exp(λ1).(8.5.5)
    又因为 λ \lambda λ是一个常数,所以 p ^ i \hat{p}_i p^i是一个常数,那么我们可以轻易每个 p ^ i \hat{p}_{i} p^i都等于 e x p ( λ − 1 ) exp(\lambda -1) exp(λ1),由 ∑ i = 1 k p i = 1 \sum_{i=1}^{k}p_{i}=1 i=1kpi=1可以得到:
    p ^ 1 = p ^ 2 = ⋯ = p ^ k = 1 k . (8.5.6) \hat{p}_{1}=\hat{p}_{2}=\cdots =\hat{p}_{k}=\frac{1}{k}.\tag{8.5.6} p^1=p^2==p^k=k1.(8.5.6)
    很显然 p ( x ) p(x) p(x)是一个均匀分布,那么 关 于 离 散 变 量 的 无 信 息 先 验 的 最 大 熵 分 布 \color{blue}关于离散变量的无信息先验的最大熵分布 就是 均 匀 分 布 \color{red}均匀分布

    也可以这样表述: 在 没 有 任 何 已 知 情 况 下 , 等 可 能 就 是 不 确 定 性 最 高 的 时 候 , 而 不 确 定 性 最 大 则 熵 最 大 。 \color{red}在没有任何已知情况下,等可能就是不确定性最高的时候,而不确定性最大则熵最大。

8.5.3 指数族分布的最大熵原理

在机器学习中,已知事实就是给定的数据,那么如何将数据转换为约束呢?

  1. 定义相关约束
    • 我们已经有了一部分数据:
      D a t a = { x 1 , x 2 , ⋯   , x N } Data=\left \{x_{1},x_{2},\cdots ,x_{N}\right \} Data={x1,x2,,xN}
    • 根据数据我们可以定义其经验分布:
      p ^ ( x = n ) = p ^ ( n ) = c o u n t ( n ) N . (8.5.7) \hat{p}(x=n)=\hat{p}(n)=\frac{count(n)}{N}.\tag{8.5.7} p^(x=n)=p^(n)=Ncount(n).(8.5.7)

      这里 p ^ ( x ) \hat{p}(x) p^(x)是指取值为 x x x的数据所占的比例,即频率。通过该分布可以获得数据的一些属性,比如 E p ^ [ x ] , V a r p ^ [ x ] , ⋯ E_{\hat{p}}[x],Var_{\hat{p}}[x],\cdots Ep^[x],Varp^[x],

    • 假设 f ( x ) f(x) f(x)是任意关于 x x x的函数向量,令 E p ^ [ f ( x ) ] = Δ ( 已 知 ) \color{red}E_{\hat{p}}[f(x)]=\Delta(已知) Ep^[f(x)]=Δ(),则满足:
      f ( x ) = ( f 1 ( x ) f 2 ( x ) ⋮ f Q ( x ) )      Δ = ( Δ 1 Δ 2 ⋮ Δ Q ) . (8.5.8) f(x)=\begin{pmatrix} f_{1}(x)\\ f_{2}(x)\\ \vdots \\ f_{Q}(x) \end{pmatrix}\; \; \Delta =\begin{pmatrix} \Delta _{1}\\ \Delta _{2}\\ \vdots \\ \Delta _{Q} \end{pmatrix}.\tag{8.5.8} f(x)=f1(x)f2(x)fQ(x)Δ=Δ1Δ2ΔQ.(8.5.8)
    • 因此对于 p ( x ) p(x) p(x),其熵为 H [ p ] = − ∑ x p ( x ) log ⁡ p ( x ) H[p] = - \sum_x p(x)\log p(x) H[p]=xp(x)logp(x)。其约束为:
      { min ⁡ ∑ x p ( x ) log ⁡ p ( x ) s . t .    ∑ x p ( x ) = 1            E p ^ [ f ( x ) ] = Δ . (8.5.9) \color{blue}\begin{cases} \min\displaystyle\sum_xp(x)\log p(x)\\ s.t.\ \ \displaystyle\sum_xp(x)=1\\ \ \ \ \ \ \ \ \ \ \ E_{\hat p}[f(x)]=\Delta \end{cases}.\tag{8.5.9} minxp(x)logp(x)s.t.  xp(x)=1          Ep^[f(x)]=Δ.(8.5.9)
  2. 求解约束问题
    • 使用拉格朗日乘子法进行求解,首先定义拉格朗日函数:
      L ( P , λ 0 , λ ) = ∑ x p ( x ) l o g    p ( x ) + λ 0 ( 1 − ∑ x p ( x ) ) + λ T ( Δ − E p [ f ( x ) ] ) . (8.5.10) L(P,\lambda _{0},\lambda )=\sum _{x}p(x)log\; p(x)+\lambda _{0}(1-\sum _{x}p(x))+\lambda ^{T}(\Delta -E_{p}[f(x)]).\tag{8.5.10} L(P,λ0,λ)=xp(x)logp(x)+λ0(1xp(x))+λT(ΔEp[f(x)]).(8.5.10)
      其中 E p [ f ( x ) ] = ∑ x p ( x ) f ( x ) E_p[f(x)]=\sum_x p(x)f(x) Ep[f(x)]=xp(x)f(x)。则:
      L ( p , λ 0 , λ ) = ∑ i = 1 N p ( x i ) log ⁡ p ( x i ) + λ 0 ( 1 − ∑ x p ) + λ T ( Δ − ∑ x p ( x ) f ( x ) ) . (8.5.11) \color{blue}\mathcal{L}(p,\lambda_0, \lambda) = \sum_{i=1}^N p(x_i)\log p(x_i) + \lambda_0(1-\sum_{x} p)+\lambda^T(\Delta - \sum_x p(x)f(x)).\tag{8.5.11} L(p,λ0,λ)=i=1Np(xi)logp(xi)+λ0(1xp)+λT(Δxp(x)f(x)).(8.5.11)
    • 接着对 p ( x ) p(x) p(x)进行求导,这里指的是对每个 p ( x i ) p(x_{i}) p(xi)进行求导:
      ∂ L ∂ p ( x ) = 0 {\partial L \over \partial p(x)}=0 p(x)L=0
      ∑ x ( log ⁡ p ( x ) + p ( x ) 1 p ( x ) ) − λ 0 ∑ x 1 − λ T ∑ x f ( x ) = 0 ∑ x ( log ⁡ p ( x ) + 1 − λ 0 − λ T f ( x ) ) = 0 \begin{array}{c} \sum_x(\log p(x)+p(x){1\over p(x)})-\lambda_0\sum_x 1-\lambda^T\sum_x f(x)&=0\\ \sum_x(\log p(x)+1-\lambda_0-\lambda^Tf(x))&=0 \end{array} x(logp(x)+p(x)p(x)1)λ0x1λTxf(x)x(logp(x)+1λ0λTf(x))=0=0
      此处求和结果为 0 0 0,但实际上在求导时,总是针对某个 x i x_i xi,这样的话,其余 x j ( i ≠ j ) x_j(i\neq j) xj(i=j)都为 0 0 0,所以此处可以化为求和内每一项都为 0 0 0,即:
      log ⁡ p ( x ) + 1 − λ 0 − λ T f ( x ) = 0 log ⁡ p ( x ) = λ 0 + λ T f ( x ) − 1 p ( x ) = exp ⁡ { λ 0 + λ T f ( x ) − 1 } p ( x ) = exp ⁡ { λ T ⏟ η T f ( x ) ⏟ ϕ ( x ) − ( 1 − λ 0 ) ⏟ A ( η ) } \begin{array}{r} \log p(x)+1-\lambda_0-\lambda^Tf(x)&=0\\ \log p(x)&=\lambda_0+\lambda^Tf(x)-1\\ p(x)&=\exp\{ \lambda_0+\lambda^Tf(x)-1 \}\\ p(x)&=\exp\{ \color{red}{\underbrace{\lambda^T}_{\eta^T}} \color{blue}{\underbrace{f(x)}_{\phi(x)}}-\color{green}{\underbrace{(1-\lambda_0)}_{A(\eta)}} \} \end{array} logp(x)+1λ0λTf(x)logp(x)p(x)p(x)=0=λ0+λTf(x)1=exp{λ0+λTf(x)1}=exp{ηT λTϕ(x) f(x)A(η) (1λ0)}
      显示 p ( x ) p(x) p(x)是一个指数族分布,因此对于连续变量 x x x,其在满足既定事实的条件下对应的最大熵的分布是一个指数族分布。

      连续变量最大嫡对应于高斯分布。

8.6 总结

  1. 指数族分布的基本形式:
    P ( x ∣ η ) = h ( x ) e x p { η T ϕ ( x ) − A ( η ) } = 1 e x p { A ( η ) } h ( x ) e x p { η T ϕ ( x ) } . (8.6.1) P(x|\eta )=h(x)exp\left \{\eta ^{T}\phi (x)-A(\eta )\right \}\\ =\frac{1}{exp\left \{A(\eta )\right \}}h(x)exp\left \{\eta ^{T}\phi (x)\right \}.\tag{8.6.1} P(xη)=h(x)exp{ηTϕ(x)A(η)}=exp{A(η)}1h(x)exp{ηTϕ(x)}.(8.6.1)
    • η \eta η:参数向量parameter, η ∈ R p \eta \in \mathbb{R}^p ηRp
    • A ( η ) A(\eta) A(η):log partition function (对数配分函数)。
    • ϕ ( x ) \phi(x) ϕ(x):sufficient statistics magnitude(充分统计量)。
  2. 高斯函数指数族分布的形式:
    P ( x ∣ θ ) = 1 2 π σ exp ⁡ { − ( x − μ ) 2 2 σ 2 } = exp ⁡ { ( μ σ 2 − 1 2 σ 2 ) ⏟ η T ( x x 2 ) ⏟ ϕ ( x ) − ( μ 2 2 σ 2 + 1 2 log ⁡ ( 2 π σ 2 ) ) ⏟ A ( η ) } . (8.6.2) P(x|\theta)={1\over\sqrt{2\pi}\sigma}\exp\{ -{(x-\mu)^2\over 2\sigma^2}\}\\ =\exp\{ \color{red}{\underbrace{\begin{pmatrix}{\mu\over \sigma^2} &-{1\over 2\sigma^2}\end{pmatrix} }_{\eta^T} } \color{blue}{\underbrace{\begin{pmatrix}x \\ x^2\end{pmatrix}}_{\phi(x)}}-\color{green}{\underbrace{ ({\mu^2 \over 2\sigma^2}+{1\over2}\log(2\pi\sigma^2)) }_{A(\eta)}}\} .\tag{8.6.2} P(xθ)=2π σ1exp{2σ2(xμ)2}=exp{ηT (σ2μ2σ21)ϕ(x) (xx2)A(η) (2σ2μ2+21log(2πσ2))}.(8.6.2)
    其中 h ( x ) = 1 ;    η = ( η 1 η 2 ) = ( μ σ 2 − 1 2 σ 2 ) ;    ϕ ( x ) = ( x x 2 ) ;    A ( η ) = η 1 2 4 η 2 + 1 2 l o g ( − π 2 η 2 ) . (8.6.3) h(x)=1;\; \eta =\begin{pmatrix} \eta _{1}\\ \eta _{2} \end{pmatrix}=\begin{pmatrix} \frac{\mu }{\sigma ^{2}}\\ -\frac{1}{2\sigma ^{2}} \end{pmatrix};\; \phi (x)=\begin{pmatrix} x\\ x^{2} \end{pmatrix};\; A(\eta )=\frac{\eta _{1}^{2}}{4\eta _{2}}+\frac{1}{2}log(-\frac{\pi }{2\eta _{2}}).\tag{8.6.3} h(x)=1;η=(η1η2)=(σ2μ2σ21);ϕ(x)=(xx2);A(η)=4η2η12+21log(2η2π).(8.6.3)
  3. 对数配分函数与充分统计量的关系
    A ′ ( η ) = E x ∼ p ( x ∣ η ) [ ϕ ( x ) ] . (8.6.4) \color{red}A'(\eta) = \mathbb{E}_{x \sim p(x|\eta)}[\phi(x)].\tag{8.6.4} A(η)=Exp(xη)[ϕ(x)].(8.6.4)
    A ′ ′ ( η ) = V a r P ( x ∣ η ) [ ϕ ( x ) ] . (8.6.5) \color{red}A^{''}(\eta )=Var_{P(x|\eta )}[\phi (x)].\tag{8.6.5} A(η)=VarP(xη)[ϕ(x)].(8.6.5)
  4. 信息量
    设一个事件发生的概率为 p p p,那么他的信息量是 log ⁡ 1 p = − log ⁡ p \log {1\over p}=-\log p logp1=logp ,其信息量与概率成反比。信息量:
    信 息 量 : − log ⁡ p . (8.6.6) \color{red}信息量:-\log p.\tag{8.6.6} logp.(8.6.6)
  • 熵是随机变量不确定性的度量, 不 确 定 性 越 大 , 熵 值 就 越 大 \color{blue}不确定性越大,熵值就越大 ;若随机变量退化成定值,熵为0。均匀分布是“最不确定”的分布。
  • 信息量的期望便是熵:
    H [ P ] = E [ − l o g    p ( x ) ] = ∫ − p ( x ) l o g    p ( x ) d x ( 连 续 ) H [ P ] = E [ − l o g    p ( x ) ] = − ∑ i = 1 N p ( x ) l o g    p ( x ) ( 离 散 ) . (8.6.7) \color{red}H[P]=E[-log\; p(x)]=\int -p(x)log\; p(x)\mathrm{d}x(连续)\\ H[P]=E[-log\; p(x)]=-\sum_{i=1}^{N}p(x)log\; p(x)(离散).\tag{8.6.7} H[P]=E[logp(x)]=p(x)logp(x)dx()H[P]=E[logp(x)]=i=1Np(x)logp(x)().(8.6.7)
  1. 指数族分布的最大熵原理
    • 我们已经有了一部分数据:
      D a t a = { x 1 , x 2 , ⋯   , x N } Data=\left \{x_{1},x_{2},\cdots ,x_{N}\right \} Data={x1,x2,,xN}
    • 根据数据我们可以定义其经验分布:
      p ^ ( x = n ) = p ^ ( n ) = c o u n t ( n ) N . (8.6.8) \hat{p}(x=n)=\hat{p}(n)=\frac{count(n)}{N}.\tag{8.6.8} p^(x=n)=p^(n)=Ncount(n).(8.6.8)

      这里 p ^ ( x ) \hat{p}(x) p^(x)是指取值为 x x x的数据所占的比例,即频率。通过该分布可以获得数据的一些属性,比如 E p ^ [ x ] , V a r p ^ [ x ] , ⋯ E_{\hat{p}}[x],Var_{\hat{p}}[x],\cdots Ep^[x],Varp^[x],

    • 假设 f ( x ) f(x) f(x)是任意关于 x x x的函数向量,令 E p ^ [ f ( x ) ] = Δ ( 已 知 ) \color{red}E_{\hat{p}}[f(x)]=\Delta(已知) Ep^[f(x)]=Δ(),则满足:
      f ( x ) = ( f 1 ( x ) f 2 ( x ) ⋮ f Q ( x ) )      Δ = ( Δ 1 Δ 2 ⋮ Δ Q ) . (8.6.9) f(x)=\begin{pmatrix} f_{1}(x)\\ f_{2}(x)\\ \vdots \\ f_{Q}(x) \end{pmatrix}\; \; \Delta =\begin{pmatrix} \Delta _{1}\\ \Delta _{2}\\ \vdots \\ \Delta _{Q} \end{pmatrix}.\tag{8.6.9} f(x)=f1(x)f2(x)fQ(x)Δ=Δ1Δ2ΔQ.(8.6.9)
    • 因此对于 p ( x ) p(x) p(x),其熵为 H [ p ] = − ∑ x p ( x ) log ⁡ p ( x ) H[p] = - \sum_x p(x)\log p(x) H[p]=xp(x)logp(x)。其约束为:
      { min ⁡ ∑ x p ( x ) log ⁡ p ( x ) s . t .    ∑ x p ( x ) = 1            E p ^ [ f ( x ) ] = Δ . (8.6.10) \color{blue}\begin{cases} \min\displaystyle\sum_xp(x)\log p(x)\\ s.t.\ \ \displaystyle\sum_xp(x)=1\\ \ \ \ \ \ \ \ \ \ \ E_{\hat p}[f(x)]=\Delta \end{cases}.\tag{8.6.10} minxp(x)logp(x)s.t.  xp(x)=1          Ep^[f(x)]=Δ.(8.6.10)
    • 通过拉格朗日乘子法得:
      p ( x ) = exp ⁡ { λ T ⏟ η T f ( x ) ⏟ ϕ ( x ) − ( 1 − λ 0 ) ⏟ A ( η ) } . (8.6.11) p(x)=\exp\{ \color{red}{\underbrace{\lambda^T}_{\eta^T}} \color{blue}{\underbrace{f(x)}_{\phi(x)}}-\color{green}{\underbrace{(1-\lambda_0)}_{A(\eta)}}\}.\tag{8.6.11} p(x)=exp{ηT λTϕ(x) f(x)A(η) (1λ0)}.(8.6.11)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值