熵与边际猜测工作量的不可比性及Twofish密码分析改进
熵与边际猜测工作量的理论探讨
在信息论和密码学领域,熵(Entropy)和边际猜测工作量(Marginal Guesswork)是衡量不确定性的两个重要概念。
首先,我们来看关于随机变量 (X) 和 (Y) 的相关证明。设 (H = H(X)),选取引理 1 中的 (\varepsilon) 满足 (\varepsilon = \alpha/2N),可得:
[
\sum_{i = 1}^{2N 2^{\lceil H \rceil}} p[i] \leq 2N \sum_{i = 1}^{2^{\lceil H \rceil}} p[i] < 2N\varepsilon = \alpha
]
由此可推出 (w_{\alpha}(X) > 2N2^{\lceil H \rceil} \geq 2^{N + H}),进而得到 (\log w_{\alpha}(X) - H > N)。
对于随机变量 (Y),其概率 (q_i = P[Y = y_i]) 定义为 (q[1] = \alpha),(q[i] = (1 - \alpha)/2^k)((2 \leq i \leq 2^k + 1)),这对应着一个不平衡的霍夫曼树。容易得出 (w_{\alpha}(Y) = 1),且 (H(Y) = -\alpha \log \alpha - (1 - \alpha) \log \frac{1 - \alpha}{2^k} = (1 - \alpha)k + H(\alpha))。当 (H(Y) > N) 时,即 (k > \frac{N - H(\alpha)}{1
熵与Twofish密码分析改进
超级会员免费看
订阅专栏 解锁全文
1320

被折叠的 条评论
为什么被折叠?



