递归神经网络中的动力学、对称性与信息处理
1. 递归网络的动力学规则
递归神经网络中,神经元的状态更新遵循一定的动力学规则。在某些情况下,动力学规则可简化为:
(\sigma_i(t + 1) = \text{sgn}(\sigma_{\pi(i)}(t)) = \sigma_{\pi(i)}(t) \quad (\forall i) \quad (\forall t \geq 0))
这意味着在每个时间步,每个神经元 (i) 只需复制特定神经元 (\pi(i)) 的当前状态来确定自身的新状态。通过改变索引操作 (\pi),可以得到不同的周期。以下是一些具体例子:
- (\pi(i) = k (\forall i)): 所有神经元从同一位置 (k) 复制新状态,即 (\sigma_i(t + 1) = \sigma_k(t) (\forall i)),进而可得 (\sigma_i(t) = \sigma_k(0) (\forall i) (\forall t > 0))。系统最终会进入两个固定点吸引子之一:(\sigma^+ = (1, \ldots, 1)),吸引域 (D^+ = {\sigma \in {-1, 1}^N | \sigma_k(0) = 1});(\sigma^- = (-1, \ldots, -1)),吸引域 (D^- = {\sigma \in {-1, 1}^N | \sigma_k(0) = -1})。
- (\pi(i) = N + 1 - i (\forall i)): 映射 (\pi) 满足 (\pi(\pi(i)) = \pi(N + 1 - i) = i (\f
超级会员免费看
订阅专栏 解锁全文
15

被折叠的 条评论
为什么被折叠?



