蚁狮优化器:理论、文献综述及其在多层感知器神经网络中的应用
1. 引言
物理学家的大脑能够解开自然界中各种并发和复杂事件的谜题。人类之所以能拥有这样的智慧,是因为进化逐渐完善了我们大脑的结构,使其成为一个庞大的并行神经元网络。这一进化事实最初启发了麦卡洛克和皮茨在1943年构建一个数学模型来模拟大脑的生物神经系统,也促使其他研究人员对人工神经网络(ANN)展开研究。
人工神经网络是一种广泛应用于学习、逼近和研究各类复杂问题的技术。在机器感知场景中,当很难单独解释问题的主要特征时,人工神经网络通常能表现出色。因此,它被公认为是一种强大的学习方法,能在许多模式识别、聚类、分类和回归问题上取得令人满意的结果。
单层感知器(SLP)网络是仅包含输入和输出两层的计算模型,是人工神经网络的最简单形式。但已证明,单层感知器无法有效检测和处理非线性可分模式。为解决这一问题,研究人员开发了多层感知器(MLP),它通常使用多个隐藏层来避免单层感知器的缺点,因此成为文献中最常用的一类人工神经网络。MLP的主要优点包括高学习潜力、对噪声的鲁棒性、非线性、并行性、容错性以及强大的泛化能力。根据科尔莫戈罗夫定理,具有单个隐藏层的MLP可以估计任何连续函数。然而,人工神经网络的性能很大程度上取决于用于训练权重向量的学习技术。
监督式MLP训练器通常分为两类:基于梯度的算法和基于随机的算法。基于梯度的训练器在局部搜索中表现良好,而基于元启发式的训练器(元训练器)在避免局部最优方面效率更高。与基于梯度的训练器相比,元训练器的基本优势在于搜索的随机性,因此它们通常能比基于梯度的训练器更好地进行全局搜索。此外,当缺乏关于任务的先验知识时,元训练器往往是最佳选择。基于梯度的技术只能解决连续和可微任务
超级会员免费看
订阅专栏 解锁全文
71

被折叠的 条评论
为什么被折叠?



