神经网络系统的优化与扩展:Exoself、Scape及架构改进
1. 训练器与最优基因型选择
在神经网络(NN)的优化过程中,训练器起着关键作用。当NN完成训练后,它会向训练器发送消息,包含NN所达到的最高适应度分数以及达到该分数所需的总评估次数(即对NN总适应度的评估次数)。训练器会将这个“实验性”NN的适应度与名为“最佳”的基因型的适应度进行比较。若“实验性”的适应度更高,训练器会将其重命名为“最佳”,覆盖并移除原有的“最佳”基因型;若“最佳”的适应度更高,则不覆盖旧的基因型。无论哪种情况,训练器都会生成一个新的名为“实验性”的基因型,并重复这个过程。
训练器使用 Trainer_MaxAttempts 变量来确定生成新基因型的次数。只有当训练器连续 Trainer_MaxAttempts 次未能生成更优的基因型时,它才会停止,此时训练器会将最适合的基因型存储在名为“最佳”的文件中。
2. Exoself的引入与作用
为了通过增强的随机爬山算法(SHC)调整NN的权重,我们需要一个外部进程,即Exoself。由于皮层是NN系统的一部分,负责同步和执行需要全局视角的任务,如在竞争学习中比较整个网络对某个信号的神经响应强度,所以不能用皮层来实现这个新功能。而Exoself可以完成诸如关闭整个NN系统、在NN运行时添加新的传感器和执行器或新的神经元、更新系统源代码、恢复NN系统的先前状态等任务。
假设在一个高级人工生命场景中,一个模拟生物由NN控制。该生物能够修改自身的神经拓扑结构并添加新的传感器和执行器。但在一次实验中,可能会出现同步问题,导致整个NN系统停止运行。例如,基于N
超级会员免费看
订阅专栏 解锁全文
29

被折叠的 条评论
为什么被折叠?



