SaEF-AKT--自适应知识迁移的代理辅助多任务进化框架

本文介绍了一种名为SaEF-AKT的框架,它结合了代理辅助、高斯过程经验模型和自适应知识迁移,用于解决昂贵优化问题。框架通过计算任务间相似度和利用信息素策略选择相似任务,有效迁移知识。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

SaEF-AKT–自适应知识迁移的代理辅助多任务进化框架

title:Surrogate-Assisted Evolutionary Framework with Adaptive Knowledge Transfer for Multi-task Optimization

author:Shijia Huang, Jinghui Zhong,and Wei-jie Yu

journal: IEEE TRANSACTIONS ON EMERGING TOPICS IN COMPUTING(TETC)

DOI10.1109/TETC.2019.2945775

code:

1.主要贡献:

1)提出了一种代理辅助的多任务进化框架,可以用于解决昂贵优化问题。

2)设计了一种相似性度量方式

3)提出了一种自适应知识迁移策略来迁移有效的知识。

4)提出了一种基于信息素的方式来选择相似任务。

2.问题提出:

​ 在解决相似性事先未知的MaTO问题时,如何选择相似任务,如何进行知识迁移。

3.SaEF-AKT:

3.1 算法框架

​ 首先,为每个任务构建高斯过程经验模型(GPOP)。然后,使用KLD来计算任务间相似度。接着,根据信息素浓度和相似度来选择相似任务。最后,从相似任务中迁移有效的知识,并更新信息素。

image-20240319194836452 image-20240319194935704

3.2 构建经验模型

​ 高斯过程经验模型的预测精度取决于协方差矩阵及其相关参数。

​ 首先,GP是通过随机抽样一组初始点来构建的。然后,在接下来的每一代,都会在给定数据集上构建GP,并优化参数。接着,使用进化算法来搜索由GP构建的“近似问题”的最小值。最后,在EA结束后,使用真实的适应度函数来评估找到的最小值,并将其添加至数据集中。

​ 为了提高GP的预测质量,促进全局搜索,merit函数定义如下:
f M ( x ) = t ^ ( x ) − γ σ t ( x ) f_M(x)=\hat t(x)-\gamma\sigma_t(x) fM(x)=t^(x)γσt(x)
其中, t ^ ( x ) \hat t(x) t^(x)表示通过GP经验模型得到的预测函数值, γ \gamma γ是一个平衡探索和开发的因子, σ t ( x ) \sigma_t(x) σt(x)是GP预测的标准差。随着γ的增加,优化求解器将更有可能向未探索的区域移动。

​ 为了减少计算复杂度,提高精确度,本文所使用的GPOP的训练数据是由最近评估的 N R N_R NR个点和最接近 x b e s t x_{best} xbest N C N_C NC个点组成。

​ 为了提高搜索效率,所搜区域被限制在 x b e s t x_{best} xbest周围:
x b e s t − d / 2 ≤ x ≤ x b e s t + d / 2 x_{best}-d/2\le x\le x_{best}+d/2 xbestd/2xxbest+d/2
其中 d d d超立方体的对角线集,用以反映 N C N_C NC个最近点的分布:
d i = m a x c ( x c , i ) − m i n c ( x c , i ) d_i=max_c(x_{c,i})-min_c(x_{c,i}) di=maxc(xc,i)minc(x

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Tiger-woods

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值