神经网络建模相关知识解析
1. 特征矩阵的可对角化与相关概率分析
1.1 配置概率计算
在特定的计算过程中,当特征值退化且 (M_0) 和 ((\epsilon - m)) 为大数时,经过 (\epsilon) 个周期后获得配置 (\alpha) 的概率可以通过特定公式计算。例如,在满足上述条件下,概率为 (- \lambda_{max}^2 (\alpha_1) \lambda_{max}^2 (\alpha_2)) 。对相关方程(如方程 (B.19))进行分析可知,配置 (\alpha_1) 的影响并不影响获得配置 (\alpha_2) 的概率。但当 (|\lambda_{\alpha_1}| \approx |\lambda_{\alpha_2}|) 时,获得配置 (\alpha_2) 的概率则依赖于配置 (\alpha_1) ,并且 (\alpha_1) 的影响会持续很长时间。
1.2 特征矩阵的可对角化推广
原本假设 (T_M) 是可对角化的,但实际上其结果可以推广到任意的 (M \times M) 矩阵。因为任何 (M \times M) 矩阵都可以转化为约旦标准型。在这种情况下,(\psi(\alpha)) 的表示是基于广义特征向量的,这些广义特征向量满足特定方程(如方程 (B.25)),而非仅涉及特征向量。特征向量是等级为 1 的广义向量,当 (k > 1) 时,方程 (B.25) 定义了广义向量。对于 (k = 1) 的特定情况,方程 (B.14) 和方程 (B.16) 的结果是相同的。从方程 (B.25) 还可以推导出特征向量 (\psi(\alpha)) 。
超级会员免费看
订阅专栏 解锁全文
1702

被折叠的 条评论
为什么被折叠?



