大规模优化算法:二进制遗传算法与分组粒子群优化器
在当今的优化领域,大规模全局优化(LSGO)问题一直是研究的热点和难点。本文将介绍两种用于解决大规模优化问题的算法:基于EDA分解的二进制遗传算法和分组粒子群优化器(GPSO - PG),并对它们的原理、实验结果等进行详细分析。
基于EDA分解的二进制遗传算法
在搜索空间中,如果某个区域前景良好,该位置0的数量会增加,概率向量的值会趋近于零。置信水平d是一个参数,它定义了概率值在0.5附近的阈值,当处于这个范围时,我们无法确定基因的值。虽然固定变量的决策是由独立组件做出的,但估计分布总体上包含了解决问题的信息,所以该方法不仅适用于可分离的LSGO问题。
接下来需要确定要固定的变量数量,有多种策略可供选择。例如,二分法将n维问题分解为两个n/2的子组件。一般来说,我们将固定变量的数量定义为染色体长度的百分比,用a表示。a的值可以是常数,也可以在算法运行过程中改变。变量和概率向量的相应组件会在预定义的代数内固定,这个预定义的代数称为适应期(用tadapt表示),固定组件的列表是随机定义的。在本文中,采用了直接的方法,a和tadapt是预先定义的常数。
这种基于EDA分解的主要优点是,在固定概率向量的组件时,不会丢失之前收集的统计信息。遗传算法(GA)解决降维问题,并仅为活动组件更新概率。每个适应期结束后,会随机固定其他组件,之前固定的组件将继续更新其保存的值。
算法步骤
- 编码问题 :首先,需要将初始问题编码为二进制表示,可以使用标准二进制或格雷码,并定义染色体长度n。
- 定义参数
超级会员免费看
订阅专栏 解锁全文
15

被折叠的 条评论
为什么被折叠?



