神经进化方法概述
在人工智能领域,神经进化方法是一个重要的研究方向,它借鉴了生物进化的原理来优化人工神经网络。本文将详细介绍几种神经进化方法,包括物种形成、基于超立方体的神经进化(HyperNEAT)、可进化底物的超立方体神经进化(ES - HyperNEAT)以及新颖性搜索优化方法。
1. 物种形成(Speciation)
在进化过程中,生物体可以通过世代创造出多样的拓扑结构,但难以产生和维持自身的拓扑创新。较小的网络结构比大型网络结构优化得更快,这人为地降低了在基因组中添加新节点或连接后其后代存活的机会。新增强的拓扑结构会因种群中生物体适应性的暂时下降而面临负面进化压力,然而,新颖的拓扑结构从长远来看可能会带来创新的解决方案。
为了解决适应性的暂时下降问题,在NEAT算法中引入了物种形成的概念。物种形成通过引入狭窄的生态位来限制可交配的生物体范围,在交叉过程中,只有属于同一生态位的生物体相互竞争,而不是与种群中的所有生物体竞争。具体实现方式是将种群进行划分,使具有相似拓扑结构的生物体属于同一物种。
物种形成算法使得NEAT方法能够创建复杂的人工神经网络,这些网络能够解决各种控制优化问题以及其他无监督学习问题。由于通过复杂化和物种形成对人工神经网络拓扑结构进行了特定的增强,解决方案往往能优化训练和推理的性能。最终的人工神经网络拓扑结构会根据需要解决的问题进行增长,而不会像传统基于反向传播训练的人工神经网络拓扑设计方法那样引入多余的隐藏单元层。
2. 基于超立方体的神经进化(HyperNEAT)
人类大脑是自然进化的产物,经过数百万年的进化,形成了极其复杂的结构,具有许多层次、模块以及数万亿个神经元之间的连接。大脑的
超级会员免费看
订阅专栏 解锁全文
1001

被折叠的 条评论
为什么被折叠?



