随机局部搜索中接受准则的比较
在优化问题的求解中,随机局部搜索算法是一类常用的方法,而接受准则在其中起着关键作用。本文将介绍几种常见的接受准则,并通过实验比较它们在不同问题上的性能。
常见接受准则
- GDA(Great Deluge Algorithm)接受准则 :GDA接受目标函数值低于某个阈值的每一步移动,该阈值在搜索过程中逐渐降低。其接受概率公式为:
[
p_k =
\begin{cases}
1, & \text{if } f(s) \leq \varphi_k \
0, & \text{otherwise}
\end{cases}
]
其中,(\overline{\varphi}_{k + 1} = \varphi_k - \lambda),(\lambda)是一个固定参数。随着阈值的降低,GDA对解的接受变得越来越严格。 - LAHC(Late Acceptance Hill Climbing)接受准则 :LAHC不使用类似温度的参数,但会记录搜索历史。它接受相对于当前最优解(\hat{s})或(\kappa)次迭代前的最优解有所改进的解。接受概率公式为:
[
p =
\begin{cases}
1, & \text{if } f(s) \leq \max{f(\hat{s}), f(s_{i - \kappa})} \
0, & \text{otherwise}
\end{cases}
]
超级会员免费看
订阅专栏 解锁全文
645

被折叠的 条评论
为什么被折叠?



