利用切尔诺夫信息区分分布
在密码学领域,区分不同的分布是一项至关重要的任务。本文将深入探讨如何利用切尔诺夫信息来区分分布,并介绍相关的理论和应用。
1. 相关信息熵与距离定义
- 最小熵 :设 $X$ 是有限集 $Z$ 上的随机变量,$X$ 的最小熵定义为 $H_{\infty}[X] = -\log(\max_{x} \Pr[X = z])$。
- Rényi 熵 :对于 $\alpha \geq 0$,$X$ 的 $\alpha$ 阶 Rényi 熵定义为 $H_{\alpha}[X] = \frac{1}{1 - \alpha} \log(\sum_{x} \Pr[X = z]^{\alpha})$。特别地,$2^{-H_2[X]}$ 是碰撞概率,且 $2^{-H_2[X]} \leq 2^{-H_{\infty}[X]}$。
- 欧几里得距离 :若 $X$ 是集合 $Z$(阶为 $N$)上的随机变量,$X$ 的分布 $P_1[X]$ 与均匀分布 $P_0[X]$ 之间的欧几里得距离的平方可表示为 $|P_1[X] - P_0[X]|_2^2 = 2^{-H_2[X]} - \frac{1}{N}$。
- 统计距离 :设 $d(P_1, P_0)$ 是分布 $P_1$ 与均匀分布 $P_0$ 之间的统计距离,则有 $d(P_1[X], P_0[X]) \leq \sqrt{N}|P_1[X], P_0[X]|_2$,此式展示了分布的统计距离和欧几里得距离之间的联系。
超级会员免费看
订阅专栏 解锁全文
14

被折叠的 条评论
为什么被折叠?



