昂贵优化问题的文献综述

关于昂贵优化问题的总成本公式

昂贵优化问题的总成本公式:

  • O(C):每一次昂贵评估的平均成本,是昂贵优化问题的关键瓶颈。例如,在实际应用中,可能涉及实验验证、仿真模型运行或复杂函数计算等,耗时高、资源需求大。
  • O(N):进化计算算法的时间复杂度,通常表示为找到一个满意解需要进行的总评估次数。它依赖于算法的效率。
  • O(P):并行和分布式计算的加速能力,它通过资源扩展来缩短优化时间。

减少O(C)的努力方向,即降低单次评估的成本

  • 代理模型(如多项式回归模型、径向基函数模型、克里金模型等)通过构建一个近似函数,模拟昂贵的适应度评估函数,从而替代直接进行昂贵的实际评估。代理模型的评估速度通常比实际问题的评估快得多,因此可以显著降低每一次评估的成本(O(C))。

减少O(N):减少总评估次数

这是通过提高算法搜索效率来实现的,目标是用更少的候选解评估次数找到满意解。

  1.  名称问题分解技术:将高维或复杂多目标问题分解为若干低维或简单问题。例如基于权重的分解(如 MOEA/D)。
  2. 环境选择改进:引入更有效的环境选择机制(如基于Pareto排序或拥挤距离的改进),提高解集的进化质量。
  3. 动态算法:在搜索过程中动态调整算法参数或搜索策略,例如动态适应变异和交叉概率。

增加O(P):并行和分布式加速

这一方向的目标是利用硬件资源和分布式计算技术,显著提高优化速度,降低单次优化所需时间。

表格的总结

昂贵优化问题的解决方案围绕如何降低评估成本、提高搜索效率和加速优化展开。通过结合代理模型、智能采样、并行计算等手段,可以显著降低总优化成本。同时,也需要根据问题的实际需求,平衡这三者的权重,找到最优组合。

在图 1.1 中,首先初始化种群,再对初始种群进行真实评价, 然后用这些真实样本训练代理模型,接着对种群进行迭代优化,此过程中用代理模型替代真实评价,优化后选择少量个体真实评价,最后当满足终止条件时输出最优解。

1. 多项式回归模型(Polynomial Regression Model)

简单理解

多项式回归就像画一个“光滑的曲线”来大致描述目标函数的变化趋势。假设目标函数是山丘的高度,我们用一根很柔软的“橡皮筋”(多项式)尽量贴合地覆盖这些山丘的形状。

主要逻辑

这个模型假设目标函数能用一组多项式(x,x2,x3)的加和来表示;

它需要找到这些多项式的系数,让这条曲线尽可能接近我们已有的数据点。

优点

简单,计算速度很快;

如果目标函数本身比较“平滑”(如简单的抛物线),拟合效果会很好。

缺点

如果目标函数非常复杂或者有很多起伏(如山峰很多),用多项式很难拟合准确;

当多项式的阶数提高时,模型容易变得不稳定,出现过拟合(即只能拟合已有点,但预测新点时很差)。

总结

多项式回归适合用来描述“简单的目标函数”,就像用光滑的橡皮筋画山丘的轮廓一样。但面对非常复杂的山地地形,橡皮筋可能不够用了。

  1. 径向基函数模型(Radial Basis Function, RBF)

简单理解

径向基函数模型更像是用一个“弹力网”来覆盖目标函数的表面,每个网点会根据周围的高度做出调整,整个模型会把目标函数的形状像“网布”一样铺展开来。

主要逻辑

举例

假如目标函数是一个复杂的山地,你可以想象每个样本点就是一个“网钉”,我们用这些网钉拉起弹力网,最终网布大致覆盖了山地的形状。

如果我们再增加样本点,整个网布会更加贴合山地的形状。

优点

能很好地处理非线性问题,比如有很多“山峰”或“低谷”的目标函数;

对少量样本点也能提供不错的拟合效果。

缺点

如果样本点很多或维度很高,计算成本会迅速增加;

总结

RBF模型像一张灵活的弹力网,能够适应复杂的目标函数形状。但如果网钉(样本点)太多,调试和计算会变得困难。一样。但面对非常复杂的山地地形,橡皮筋可能不够用了。

3. 克里金模型(Kriging Model)

简单理解

假如目标函数是一个复杂的山地,克里金模型不仅会用网布铺开山地的形状,还会告诉你哪些地方的网布铺得精确(误差小),哪些地方铺得不够精确(误差大)。

如果某个地方误差大,它就会建议在那里多采样(加个网钉)以提高预测精度。(比如某个地方“网布”铺得很密,预测很精准;另一些地方网布很稀疏,预测就比较模糊)。

优点

不仅能预测目标函数值,还能给出预测的不确定性(误差);

非常适合昂贵的优化问题,因为它能通过预测不确定性引导智能采样。

缺点

计算复杂度较高(尤其是样本点多时);

对高维问题的扩展性有限。

总结

克里金模型就像一张“聪明的网布”,不仅能贴合目标函数,还会告诉你哪里需要更多的样本点来改进模型。这使它非常适合昂贵优化问题中的智能采样。

三种模型的类比

为了更直观理解,我们可以用以下类比:

  • 多项式回归模型:像用一根橡皮筋大致画出山地的轮廓,简单快速,但复杂山地可能画不好。
  • 径向基函数模型:像用一张弹力网覆盖山地,适应性更强,能应对更复杂的地形,但参数选择很重要。
  • 克里金模型:不仅像一张智能网布,还能告诉你网布的稀密程度,适合在资源有限的情况下集中优化。

核心过程

  1. 已有点(训练数据)

我们有一些“已知的点”,这些点是通过昂贵评估得到的。比如你已经花费了大量计算资源测出了几个解(包括它们的目标值)。

这些点在设计空间(或目标空间)中标志了目标函数的一部分“形状”。

  1. 建立模型

将这些已知点的数据(设计变量 + 对应的目标值)代入模型,比如多项式回归模型、RBF模型或克里金模型。

模型会基于已有点进行学习,尝试拟合出整个目标函数的分布和趋势。

换句话说,模型会尝试猜测“未知区域”的目标值是怎样的。

  1. 预测新点的表现

模型利用训练数据预测其他未评估点的目标值。它会告诉你,在每个未评估点上,目标函数可能是什么样的(甚至在克里金模型中,还会告诉你预测值的误差有多大)。

  1. 优化采样

根据预测结果,算法会判断哪些点最有可能更接近帕累托前沿(PF)。

比如:

探索性采样:去那些模型误差较大的地方采样(减少不确定性)。

开发性采样:去那些可能提升优化目标的地方采样(靠近PF)。

  1. 更新模型

通过新采样点的真实评估结果,再次更新模型,让它逐步更贴近目标函数的真实分布。

这样,一步步地,采样点会越来越接近真实的帕累托前沿(PF)。

  1. 需要补充的关键点

如果只用优秀父代训练代理模型,可能会陷入局部搜索陷阱,因为模型只学习了优秀区域的信息而忽略了全局潜力。

为此,一些改进策略包括:

  1. 引入多样性:在训练数据中添加部分普通解的信息,帮助模型避免过拟合优秀区域。
  2. 不确定性量化:预测时不仅考虑目标值,还关注模型对解的预测信心,增加对未知区域的探索。
  3. 动态采样策略:适时增加新样本点(例如利用填充准则),扩展模型对搜索空间的认知。

问题:

  1. 昂贵超多目标和昂贵多目标相比,主要增加的难点在什么地方?
  2. 昂贵超多目标如果是采用代理模型,还需要和深度学习机器学习相结合吗,我听说深度学习那个方向的结果很难跑出来。
  3. 做这个方向的对电脑性能要求会不会很高,以我们现在拥有的计算机资源支持能不难得出结果。
  4. 在学习昂贵超多目标之前,可以先看一下昂贵多目标优化方面的论文,来帮助自己入门,还是应该直接开始看交叉方向的论文呢。

5.这三种代理模型,我们最新常用的是哪个模型呀。具体看实现过程的话,是都要看还是挑出一个重要的来学习。

昂贵多目标优化算法完整流程

1. 初始化

  1. 生成初始种群

随机生成 N 个解,作为优化过程的初始种群。

可以用启发式算法生成初始解,以加快收敛。

  1. 真实评估

对初始种群中的每个解进行真实评估(即调用目标函数),计算每个解的目标值。

如果目标函数昂贵,这一步成本会较高

  1. 训练代理模型

利用初始种群的解和对应目标值,训练代理模型(如多项式回归、RBF、克里金等),让模型能够初步拟合目标函数。

2. 主循环(迭代优化过程)

循环以下步骤,直到达到终止条件(如最大评估次数、时间限制或收敛性判据):

  1. 基于代理模型的预测

生成候选解

使用进化算法(如NSGA-II、MOEA/D)生成一批新解(候选解)。

解的生成方式包括交叉、变异、或参考当前解的局部搜索。

预测候选解的表现

用代理模型预测每个候选解的目标值和(可能的话)预测误差。

如果使用克里金模型,可以同时获得解的不确定性信息。

  1. 筛选采样点 根据模型预测,选择一小部分解进行真实评估。这是代理模型在昂贵优化中的核心应用,目的是减少昂贵评估的次数。

探索性采样:选择模型不确定性高的解(即预测误差较大的解),采样以改进模型的准确性。

开发性采样:选择预测目标值接近帕累托前沿的解,尝试进一步优化。

混合策略:综合探索和开发,通过权衡这两者提高效率。

  1. 真实评估

对筛选出的采样点调用真实目标函数,获得其准确目标值。

更新数据集:将这些新采样点及其目标值加入训练数据。

  1. 更新代理模型

用扩展后的训练数据重新训练代理模型,使其更准确地拟合目标函数,特别是帕累托前沿附近的区域。

  1. 更新种群

将新评估的解加入种群,根据进化算法的选择规则(如NSGA-II的拥挤距离、MOEA/D的加权聚合值)选择下一代种群。

3. 终止条件

算法停止的条件可以包括以下任意一种或几种

达到最大真实评估次数;

帕累托前沿的改进幅度变小(收敛性判据);

优化耗时超出预算。

代理模型的具体作用

降低真实评估次数(减少 O(C))

代理模型通过预测候选解目标值,筛选出最有潜力的解进行真实评估,避免对所有解进行昂贵评估。

例如,用克里金模型选出“不确定性高的点”或“可能更优的点”,使采样更有针对性。

引导智能采样

在初期,模型更关注“探索”(了解目标函数全局分布)。

在后期,模型更关注“开发”(靠近帕累托前沿的区域),实现效率和精度的平衡。

动态调整种群进化方向

代理模型为进化算法提供了一个低成本的“评估工具”,帮助选择最优的候选解进行繁殖或保留。

总结

通过代理模型的引入,昂贵多目标优化算法实现了从“无脑尝试”到“有策略探索”的转变。

代理模型在主循环中负责预测、筛选和指导采样,极大降低了真实评估的次数,从而显著提升算法效率。这种策略尤其适合需要大量计算资源的昂贵优化问题。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值