关于昂贵优化问题的总成本公式
昂贵优化问题的总成本公式:
- O(C):每一次昂贵评估的平均成本,是昂贵优化问题的关键瓶颈。例如,在实际应用中,可能涉及实验验证、仿真模型运行或复杂函数计算等,耗时高、资源需求大。
- O(N):进化计算算法的时间复杂度,通常表示为找到一个满意解需要进行的总评估次数。它依赖于算法的效率。
- O(P):并行和分布式计算的加速能力,它通过资源扩展来缩短优化时间。
减少O(C)的努力方向,即降低单次评估的成本。
- 代理模型(如多项式回归模型、径向基函数模型、克里金模型等)通过构建一个近似函数,模拟昂贵的适应度评估函数,从而替代直接进行昂贵的实际评估。代理模型的评估速度通常比实际问题的评估快得多,因此可以显著降低每一次评估的成本(O(C))。
减少O(N):减少总评估次数
这是通过提高算法搜索效率来实现的,目标是用更少的候选解评估次数找到满意解。
- 名称问题分解技术:将高维或复杂多目标问题分解为若干低维或简单问题。例如基于权重的分解(如 MOEA/D)。
- 环境选择改进:引入更有效的环境选择机制(如基于Pareto排序或拥挤距离的改进),提高解集的进化质量。
- 动态算法:在搜索过程中动态调整算法参数或搜索策略,例如动态适应变异和交叉概率。
增加O(P):并行和分布式加速
这一方向的目标是利用硬件资源和分布式计算技术,显著提高优化速度,降低单次优化所需时间。
表格的总结
昂贵优化问题的解决方案围绕如何降低评估成本、提高搜索效率和加速优化展开。通过结合代理模型、智能采样、并行计算等手段,可以显著降低总优化成本。同时,也需要根据问题的实际需求,平衡这三者的权重,找到最优组合。
在图 1.1 中,首先初始化种群,再对初始种群进行真实评价, 然后用这些真实样本训练代理模型,接着对种群进行迭代优化,此过程中用代理模型替代真实评价,优化后选择少量个体真实评价,最后当满足终止条件时输出最优解。
1. 多项式回归模型(Polynomial Regression Model)
简单理解
多项式回归就像画一个“光滑的曲线”来大致描述目标函数的变化趋势。假设目标函数是山丘的高度,我们用一根很柔软的“橡皮筋”(多项式)尽量贴合地覆盖这些山丘的形状。
主要逻辑
这个模型假设目标函数能用一组多项式(x,x2,x3)的加和来表示;
它需要找到这些多项式的系数,让这条曲线尽可能接近我们已有的数据点。
优点
简单,计算速度很快;
如果目标函数本身比较“平滑”(如简单的抛物线),拟合效果会很好。
缺点
如果目标函数非常复杂或者有很多起伏(如山峰很多),用多项式很难拟合准确;
当多项式的阶数提高时,模型容易变得不稳定,出现过拟合(即只能拟合已有点,但预测新点时很差)。
总结
多项式回归适合用来描述“简单的目标函数”,就像用光滑的橡皮筋画山丘的轮廓一样。但面对非常复杂的山地地形,橡皮筋可能不够用了。
- 径向基函数模型(Radial Basis Function, RBF)
简单理解
径向基函数模型更像是用一个“弹力网”来覆盖目标函数的表面,每个网点会根据周围的高度做出调整,整个模型会把目标函数的形状像“网布”一样铺展开来。
主要逻辑
举例
假如目标函数是一个复杂的山地,你可以想象每个样本点就是一个“网钉”,我们用这些网钉拉起弹力网,最终网布大致覆盖了山地的形状。
如果我们再增加样本点,整个网布会更加贴合山地的形状。
优点
能很好地处理非线性问题,比如有很多“山峰”或“低谷”的目标函数;
对少量样本点也能提供不错的拟合效果。
缺点
如果样本点很多或维度很高,计算成本会迅速增加;
总结
RBF模型像一张灵活的弹力网,能够适应复杂的目标函数形状。但如果网钉(样本点)太多,调试和计算会变得困难。一样。但面对非常复杂的山地地形,橡皮筋可能不够用了。
3. 克里金模型(Kriging Model)
简单理解
假如目标函数是一个复杂的山地,克里金模型不仅会用网布铺开山地的形状,还会告诉你哪些地方的网布铺得精确(误差小),哪些地方铺得不够精确(误差大)。
如果某个地方误差大,它就会建议在那里多采样(加个网钉)以提高预测精度。(比如某个地方“网布”铺得很密,预测很精准;另一些地方网布很稀疏,预测就比较模糊)。
优点
不仅能预测目标函数值,还能给出预测的不确定性(误差);
非常适合昂贵的优化问题,因为它能通过预测不确定性引导智能采样。
缺点
计算复杂度较高(尤其是样本点多时);
对高维问题的扩展性有限。
总结
克里金模型就像一张“聪明的网布”,不仅能贴合目标函数,还会告诉你哪里需要更多的样本点来改进模型。这使它非常适合昂贵优化问题中的智能采样。
三种模型的类比
为了更直观理解,我们可以用以下类比:
- 多项式回归模型:像用一根橡皮筋大致画出山地的轮廓,简单快速,但复杂山地可能画不好。
- 径向基函数模型:像用一张弹力网覆盖山地,适应性更强,能应对更复杂的地形,但参数选择很重要。
- 克里金模型:不仅像一张智能网布,还能告诉你网布的稀密程度,适合在资源有限的情况下集中优化。
核心过程
- 已有点(训练数据)
我们有一些“已知的点”,这些点是通过昂贵评估得到的。比如你已经花费了大量计算资源测出了几个解(包括它们的目标值)。
这些点在设计空间(或目标空间)中标志了目标函数的一部分“形状”。
- 建立模型
将这些已知点的数据(设计变量 + 对应的目标值)代入模型,比如多项式回归模型、RBF模型或克里金模型。
模型会基于已有点进行学习,尝试拟合出整个目标函数的分布和趋势。
换句话说,模型会尝试猜测“未知区域”的目标值是怎样的。
- 预测新点的表现
模型利用训练数据预测其他未评估点的目标值。它会告诉你,在每个未评估点上,目标函数可能是什么样的(甚至在克里金模型中,还会告诉你预测值的误差有多大)。
- 优化采样
根据预测结果,算法会判断哪些点最有可能更接近帕累托前沿(PF)。
比如:
探索性采样:去那些模型误差较大的地方采样(减少不确定性)。
开发性采样:去那些可能提升优化目标的地方采样(靠近PF)。
- 更新模型
通过新采样点的真实评估结果,再次更新模型,让它逐步更贴近目标函数的真实分布。
这样,一步步地,采样点会越来越接近真实的帕累托前沿(PF)。
- 需要补充的关键点
如果只用优秀父代训练代理模型,可能会陷入局部搜索陷阱,因为模型只学习了优秀区域的信息而忽略了全局潜力。
为此,一些改进策略包括:
- 引入多样性:在训练数据中添加部分普通解的信息,帮助模型避免过拟合优秀区域。
- 不确定性量化:预测时不仅考虑目标值,还关注模型对解的预测信心,增加对未知区域的探索。
- 动态采样策略:适时增加新样本点(例如利用填充准则),扩展模型对搜索空间的认知。
问题:
- 昂贵超多目标和昂贵多目标相比,主要增加的难点在什么地方?
- 昂贵超多目标如果是采用代理模型,还需要和深度学习机器学习相结合吗,我听说深度学习那个方向的结果很难跑出来。
- 做这个方向的对电脑性能要求会不会很高,以我们现在拥有的计算机资源支持能不难得出结果。
- 在学习昂贵超多目标之前,可以先看一下昂贵多目标优化方面的论文,来帮助自己入门,还是应该直接开始看交叉方向的论文呢。
5.这三种代理模型,我们最新常用的是哪个模型呀。具体看实现过程的话,是都要看还是挑出一个重要的来学习。
昂贵多目标优化算法完整流程
1. 初始化
- 生成初始种群
随机生成 N 个解,作为优化过程的初始种群。
可以用启发式算法生成初始解,以加快收敛。
- 真实评估
对初始种群中的每个解进行真实评估(即调用目标函数),计算每个解的目标值。
如果目标函数昂贵,这一步成本会较高
- 训练代理模型
利用初始种群的解和对应目标值,训练代理模型(如多项式回归、RBF、克里金等),让模型能够初步拟合目标函数。
2. 主循环(迭代优化过程)
循环以下步骤,直到达到终止条件(如最大评估次数、时间限制或收敛性判据):
- 基于代理模型的预测
生成候选解:
使用进化算法(如NSGA-II、MOEA/D)生成一批新解(候选解)。
解的生成方式包括交叉、变异、或参考当前解的局部搜索。
预测候选解的表现:
用代理模型预测每个候选解的目标值和(可能的话)预测误差。
如果使用克里金模型,可以同时获得解的不确定性信息。
- 筛选采样点 根据模型预测,选择一小部分解进行真实评估。这是代理模型在昂贵优化中的核心应用,目的是减少昂贵评估的次数。
探索性采样:选择模型不确定性高的解(即预测误差较大的解),采样以改进模型的准确性。
开发性采样:选择预测目标值接近帕累托前沿的解,尝试进一步优化。
混合策略:综合探索和开发,通过权衡这两者提高效率。
- 真实评估
对筛选出的采样点调用真实目标函数,获得其准确目标值。
更新数据集:将这些新采样点及其目标值加入训练数据。
- 更新代理模型
用扩展后的训练数据重新训练代理模型,使其更准确地拟合目标函数,特别是帕累托前沿附近的区域。
- 更新种群
将新评估的解加入种群,根据进化算法的选择规则(如NSGA-II的拥挤距离、MOEA/D的加权聚合值)选择下一代种群。
3. 终止条件
算法停止的条件可以包括以下任意一种或几种:
达到最大真实评估次数;
帕累托前沿的改进幅度变小(收敛性判据);
优化耗时超出预算。
代理模型的具体作用
降低真实评估次数(减少 O(C))
代理模型通过预测候选解目标值,筛选出最有潜力的解进行真实评估,避免对所有解进行昂贵评估。
例如,用克里金模型选出“不确定性高的点”或“可能更优的点”,使采样更有针对性。
引导智能采样
在初期,模型更关注“探索”(了解目标函数全局分布)。
在后期,模型更关注“开发”(靠近帕累托前沿的区域),实现效率和精度的平衡。
动态调整种群进化方向
代理模型为进化算法提供了一个低成本的“评估工具”,帮助选择最优的候选解进行繁殖或保留。
总结
通过代理模型的引入,昂贵多目标优化算法实现了从“无脑尝试”到“有策略探索”的转变。
代理模型在主循环中负责预测、筛选和指导采样,极大降低了真实评估的次数,从而显著提升算法效率。这种策略尤其适合需要大量计算资源的昂贵优化问题。