进化多目标优化中的偏好融入:现状综述
1. 引言
在实际应用中,大多数现实世界的优化问题都需要同时考虑多个相互冲突的标准,即目标。例如,购买手机时,价格、电池续航、重量、性能等因素都会影响决策。与单目标优化问题不同,多目标优化问题(MOP)通常没有一个能同时满足所有目标的最优解,而是存在一组折衷解,这些解在目标空间中的图像被称为帕累托前沿。
多目标优化的主要目标是找到帕累托前沿的一个良好收敛且分布均匀的近似,以便决策者(DM)从中选择其偏好的方案。MOP的一般形式为:
[
\begin{cases}
Min\ f(x) = [f_1(x), f_2(x), \cdots, f_M(x)]^T \
g_j(x) \leq 0, j = 1, \cdots, P \
h_k(x) = 0, k = 1, \cdots, Q \
x_i^L \leq x_i \leq x_i^U, i = 1, \cdots, n
\end{cases}
]
其中,$f_i$ 是第 $i$ 个目标函数,$M$ 是目标函数的数量,$P$ 是不等式约束的数量,$Q$ 是等式约束的数量,$x_i^L$ 和 $x_i^U$ 分别是变量 $x_i$ 的上下界。满足 $(P + Q)$ 个约束的解被称为可行解,所有可行解的集合构成可行搜索空间 $\Omega$。
为了更好地理解多目标优化,下面给出一些相关的定义:
- 帕累托最优性 :若对于任意 $x \in \Omega$ 和 $I = {1, \cdots, M}$,要么对于所有 $m \in I$ 都有 $f_m(x) =
超级会员免费看
订阅专栏 解锁全文
12万+

被折叠的 条评论
为什么被折叠?



