神经可塑性与神经调节:原理、架构与实现
1. 神经调节网络的演化与优势
通过使用专用的调节神经元,可以演化出完整的调节网络。这些复杂系统的主要作用是调节另一个神经网络的可塑性、学习能力、长期增强效应以及形成记忆的能力。与简单的赫布(Hebbian)或奥亚(Oja)学习规则不同,这种可塑性系统依赖于实际的输入信号、感官信号以及神经网络系统的其他调节和处理部分,是一种更符合生物学的神经网络架构,能使系统演化出更复杂的行为。
自然界采用了多种架构的组合。我们已经讨论过赫布学习规则,并实现了一种架构,现在要为神经进化系统添加功能,使其能够演化出具有特定架构的神经网络系统,从而赋予系统自我适应和学习的能力。
2. 神经调节架构
2.1 基于现有架构的神经调节架构
图15.5所示的架构可以利用现有的架构轻松开发,并且会增加神经元执行的神经计算与发送给神经元的信号数量之比。这很重要,因为对于大规模计算和小消息处理,Erlang语言更为有效。我们可以通过基于权重参数(weight_parameters)的方法来表示这种架构,这里的权重参数可以看作是次级神经元的突触权重。
这些次级神经元与它们要调节的神经元共享处理过程,并且由于次级神经元需要处理与被调节神经元相同的输入向量,因此这种设计具有很高的效率。其架构实现如图15.6所示。
在图15.6中,我们看到三个神经元N1、N2和N3连接到另一个神经元,该神经元的架构被展开展示。这个神经元有一个标准的激活函数和学习规则,但其输入IDPS(input_idps)列表得到了扩展。在其他学习规则中被称为参数的内容,在这里被用作该神经元嵌入式/专用调节神经元D1、D2和D
超级会员免费看
订阅专栏 解锁全文
706

被折叠的 条评论
为什么被折叠?



