利用切尔诺夫信息区分分布
在许多实际应用场景中,我们常常需要区分不同的概率分布,比如在安全性验证、谜题求解等领域。本文将深入探讨如何利用切尔诺夫信息来区分概率分布,并介绍其在布尔情形下的应用,以及相关的重要定理和实际案例。
最佳区分器与切尔诺夫信息
首先,我们定义了一个最佳区分器 $\Pi^{\star}= {P_{Z_q} : D(P_{Z_q} \parallel P_1) \leq D(P_{Z_q} \parallel P_0)}$。这里的 $D$ 表示某种散度度量。
有一个重要的定理将最佳区分器在 $P_0$ 和 $P_1$ 之间的优势与切尔诺夫信息联系起来:
定理 2:设 $P_0$ 和 $P_1$ 是两个概率分布,我们有 $1 - BestAdv_q(P_0, P_1) \approx 2^{-qC(P_0, P_1)}$。
这个结果渐近地表明,当我们有大约 $\frac{1}{C(P_0, P_1)}$ 个样本时,就可以显著地区分 $P_0$ 和 $P_1$。
布尔情形下的应用
在布尔情形中,我们主要关注区分器在诸如稳健性放大和弱可验证谜题等场景中的应用。在这些应用中,我们通常需要区分合法方和恶意方。
我们考虑区分两个布尔随机源的问题,这两个随机源的期望值分别为 $a$ 和 $b$。设 $P_0$ 和 $P_1$ 是定义在集合 $Z = {0, 1}$ 上的两个概率分布:
$P_0[X] = \begin{cases} a, & X = 1 \ 1 - a, & X = 0 \end{cases}$
$P_1[X] = \begin{cases}
超级会员免费看
订阅专栏 解锁全文
19

被折叠的 条评论
为什么被折叠?



