神经网络建模与随机动力学解析
1. 神经网络建模基础
在神经网络建模中,存在这样的关系:$\Psi(\alpha’) T: \Psi(\alpha)$ 。其中,$\Psi(\alpha)$ 可以用算子 $T_M$ 的 $(2q + 1)M$ 个正交特征向量 $\xi_r$(特征值为 $\lambda_r$)来表示。每个 $\xi_r$ 有 $(2q + 1)M$ 个分量,对应每个配置 $\alpha$ 有一个分量,即:
[
\Psi(\alpha) = \sum_{r = 1}^{(2q + 1)M} \xi_r(\alpha)
]
类似于利特尔(Little)的时域持续顺序分析,我们关注在神经元拓扑结构中,从任意起始(空间位置)开始,经过 $m$ 个空间步后找到特定状态 $\alpha_1$ ,然后在从起始位置经过 $m$ 个空间步得到 $\alpha_1$ 的基础上,再经过 $\tau$ 个空间步得到状态 $\alpha_2$ 的概率,可表示为:
[
P(\alpha_2|\alpha_1,m,\tau)
]
此式明确表明状态 $\alpha_1$ 和 $\alpha_2$ 之间不存在空间相关性。然而,如果最大特征值 $\lambda_{max}$ 是简并的,那么 $r(\alpha_1, \tau)$ 的上述因式分解就不可能实现,并且突触传递行为会存在空间相关性。这种(空间顺序上的)简并可归因于神经元配置中从各向同性向各向异性向列相的任何可能转变。也就是说,在突触传递路径中,如果神经元存在持续或定向的联系/相互作用,简并可能会自动出现。在自旋系统中,类似的简并指的是从顺磁相到铁磁相的转变。在神经系统中,考虑到时域的持续性,利
超级会员免费看
订阅专栏 解锁全文
1864

被折叠的 条评论
为什么被折叠?



