激励兼容的多智能体约束优化
1. 引言
社会选择问题在我们的社会中无处不在。这类问题通常涉及一组公共实体,它们根据一组(私人)智能体表达的偏好做出决策,目标是采用最符合私人智能体偏好的决策集,同时可能要满足一组可行性约束。
在具有自利智能体的系统中,保证最优结果往往是个难题,因为每个智能体可能都有动机以对自身有利的方式操纵系统,这种操纵会使最终结果偏离原本可实现的全局最优。
VCG 税收机制是一种确保系统中的智能体始终如实申报其偏好的方法,从而使最优结果得以被选中。该机制通过对参与智能体征收与其对其他智能体造成的损害成比例的税款来发挥作用。因此,智能体没有低估其估值的动机,因为所选结果对它们来说并非最优;也不会高估,因为这会导致它们因损害其他智能体而需支付高额税款。
传统上,此类机制主要在集中式系统中进行研究和应用。而本文提出的方法中,优化本身和 VCG 税收的计算都由控制公共决策变量的智能体以分布式方式完成。此外,还介绍了该算法的一种预算平衡扩展,它消除了问题求解智能体(公共实体)对问题的所有利益,从而确保其忠实性。
2. 定义和符号
-
离散多智能体约束优化问题(MCOP)
:是一个元组 < A, X, D, C, R >,其中:
- A = {A1, …, An} 是一组对优化问题感兴趣的自利智能体。
- X = {X1, …, Xm} 是公共决策变量/求解智能体的集合。
- D = {d1, …, dm} 是变量 X 的有限域集合。
- C = {c1, …, cq} 是一组约束,约束 ci 是一个函数 ci : di1 × .. × dik → {−∞, 0},对于所涉及变量的所有允许值组合返回 0,对于不允许的值组合返回 -∞。
- R = {r1, …, rp} 是一组关系,关系 rj i 是一个由智能体 Aj 指定的函数 di1×..×dik → R,表示 Aj 为所涉及变量的每个可能值组合分配的效用(负值可视为成本)。Rj 是智能体 Aj 指定的关系集合。
这个框架使我们能够对类似社会选择的问题进行建模,其中一组“公共”智能体 X 共同从一组可能的解决方案中选择一个整体最优结果。解决方案的可行性由 C 中的约束决定,这些约束依赖于领域并由智能体 X 施加。在多个可行解决方案之间的选择根据“私人”智能体 A 通过关系 R 表达的偏好进行。形式上,此类优化问题的最优解是所有变量 X 的完整实例化 X∗,使得 X∗ = argmaxX(∑ri∈R ri(X) + ∑ci∈C ci(X)),其中 ri 和 ci 的值是它们在特定实例化 X 下的对应值。
3. DPOP:用于 MCOP 的动态规划算法
每个智能体 Ai ∈ A 对优化问题的结果有一组偏好,由关系集合 Ri ⊂ R 表示。智能体 A 向与之相关的智能体 X 声明其关系,然后智能体 Xi 执行分布式优化过程,得出变量 Xi 的赋值 X ∗,使智能体 A 的总体效用最大化。
选择的优化算法是 DPOP,它是通用桶消除方案的一个实例,适用于分布式情况,并使用问题图的深度优先搜索(DFS)遍历作为排序。目前,假设智能体 A 如实声明其关系,因此 DPOP 能产生正确的最优解。后续会将 VCG 机制应用于 DPOP 以确保真实性。
DPOP 有三个阶段:
-
阶段 1:伪树结构的建立
- 从 X 中的节点中选择一个节点,从该节点启动自定义的分布式 DFS 算法。
- 节点向其邻居传递消息,并将自身添加到消息的上下文中。当一个节点收到来自邻居且包含自身的消息时,建立伪父/伪子关系;否则建立父/子关系。最终所有节点会一致地将彼此标记为父/子或伪父/伪子。
- 相关定义如下:
-
伪树
:图 G 的伪树排列是一棵与 G 具有相同节点的有根树,且原始图中的相邻节点位于树的同一分支中。
-
P(X)
:节点 X 的父节点,即伪树中较高层通过树边直接与节点 X 相连的单个节点。
-
C(X)
:节点 X 的子节点集合,即伪树中较低层通过树边直接与节点 X 相连的节点集合。
-
PP(X)
:节点 X 的伪父节点集合,即伪树中较高层通过回边直接与节点 X 相连的节点集合。
-
PC(X)
:节点 X 的伪子节点集合,即伪树中较低层通过回边直接与节点 X 相连的节点集合。
-
阶段 2:自底向上的 UTIL 传播
-
UTIL 消息
:UTILj i 是智能体 Xi 发送给智能体 Xj 的消息,是一个多维矩阵,每个维度对应上下文中的一个变量。
-
⊕ 运算符(连接)
:UTILj i ⊕ UTILj k 是两个 UTIL 矩阵的连接,结果是一个以 dim(UTILj i) ∪ dim(UTILj k) 为维度的矩阵,每个单元格的值是两个源矩阵中对应单元格值的和。
-
⊥ 运算符(投影)
:如果 Xk ∈ dim(UTILj i),UTILj i ⊥ Xk 是 UTILj i 矩阵沿 Xk 轴的优化投影,即对于 {dim(UTILj i) \ Xk} 中的每个变量元组,尝试 UTILj i 中所有对应于 Xk 每个值的值,并选择最佳值,结果是一个少一个维度(Xk)的矩阵。
自底向上的 UTIL 传播从叶子节点开始,仅通过树边向上传播到根节点。叶子节点启动该过程,然后每个节点 Xi 仅将这些消息转发给其父节点:
- 等待来自所有子节点的 UTIL 消息,执行连接操作,将自身从连接结果中投影出去,并将结果发送给父节点。
- 如果是根节点,Xi 接收所有一维的 UTIL 消息,然后计算每个值对应的最优总体效用,并为自身选择最优值。
此外,还进行了自顶向下的 UTIL 传播,使每个节点都能获得除其子树外的所有问题的效用信息。
-
阶段 3:VALUE 传播
- VALUE 阶段是一个自顶向下的传播阶段,由根节点在收到所有 UTIL 消息后启动。
- 根节点根据这些 UTIL 消息为自身分配使所有子树效用总和最大化的最优值,然后通过发送 VALUE(Xi ← v∗ i) 消息将其决策通知给子节点和伪子节点。
- 每个节点在收到来自父节点的 VALUE 消息后,以类似方式为自身选择最优值,并依次发送 VALUE 消息。当 VALUE 传播到达叶子节点时,问题中的所有变量都被实例化为其最优值,算法终止。
以下是 DPOP 算法的伪代码:
Algorithm 1: DPOP - distributed pseudotree optimization procedure
DPOP(X , D, C, R): each agent Xi does:
Construct DFS tree; after completion, Xi knows P(i), PP(i), C(i), PC(i)
Bottom-up UTIL propagation protocol
1 wait for UTIL messages (Xk, UT ILi k) from all children Xk ∈C(i)
2 JOIN P (i) i = (∑c∈C(i) UT ILi c) ⊕ (∑c∈{P (i)∪P P (i)} Rc i)
3 if Xi is root then start VALUE propagation, and top-down UTIL propagation
4 else compute UT ILP (i) Xi = JOIN P (i) i ⊥Xi and send it to P(i)
Top-down UTIL propagation protocol
5 foreach Xk ∈C(Xi) do compute UT ILk i and send it to Xk
VALUE propagation protocol
6 get and store in agent view all VALUE messages (Xk ←v∗ k)
7 v∗ i ←argmaxXi (JOIN P (i) Xi [v(P(i)), v(PP(i))])
8 Send VALUE(Xi ←v∗ i) to all C(i) and PC(i)
4. 基于 VCG 的激励兼容优化协议
现在考虑智能体 Ai ∈ A 是自利的,它们会试图调整其声明,以对优化过程进行有利的操纵。
研究表明,优化的唯一可能的激励兼容机制是 VCG 机制的形式。为了计算 Clarke 税款,需要一种机制在整个问题中系统地将一个智能体排除在优化过程之外。具体做法是在系统中传播的每个 UTIL 消息中,为每个智能体 A 包含相应的部分。
一个由智能体 Xi 发送给 Xj 的 UTILj i 消息是 n 个 UTILj i(Al)∗ 消息和 n 个 UTILj i(−Al) 消息的并集(每个智能体 Al 对应一个)。这种方案的复杂度为 2×n×O(DPOP),其中 n = |A|。UTILj i(Al)∗ 消息等同于普通的 UTILj i 消息,但仅通过聚合智能体 Al 在最优解中获得的效用进行计算;UTILj i(−Al) 消息等同于除 Al 之外所有智能体的效用,通过在系统地忽略 Al 的关系所得到的解中聚合除 Al 之外所有智能体的效用进行计算。
当所有传播完成后,所有智能体 Xi 都能够为所有智能体 Al 计算 VCG 税款。Al 需支付的税款等于 Al 不在时其他智能体在解中的效用与 Al 存在时他们的效用之差。
智能体 Xi 可以在彼此之间分配从智能体 Al 收集的税款,以覆盖其运行优化过程的成本。由于税款是以分布式方式计算的,且所有智能体 X 从智能体 Ai 计算并接收相同的 TAX(Ai)/m,因此智能体 Xj 很难向智能体 Ai 索要过高的税款。
以下是整个过程的 mermaid 流程图:
graph TD;
A[开始] --> B[建立伪树结构];
B --> C[自底向上 UTIL 传播];
C --> D[自顶向下 UTIL 传播];
D --> E[VALUE 传播];
E --> F[计算 VCG 税款];
F --> G[分配税款];
G --> H[结束];
5. 总结
本文介绍了一种用于社会选择问题的激励兼容分布式优化方法,通过分布式方式计算和收集 VCG 税款,引入了对问题求解智能体操纵的一定抗性。详细阐述了 DPOP 算法的三个阶段,包括伪树结构的建立、UTIL 传播和 VALUE 传播,并将 VCG 机制应用于 DPOP 以确保智能体的真实性。同时,说明了如何以分布式方式计算 VCG 税款以及税款的分配方式。这种方法在处理具有自利智能体的系统中具有重要的应用价值,能够有效解决传统集中式机制面临的问题。
激励兼容的多智能体约束优化
6. 预算平衡的随机算法
在某些情况下,可能需要牺牲帕累托最优性来实现预算平衡。即选择的解决方案不再是最优的,但好处是自利的智能体之间相互支付税款,不会产生税收盈余,从而消除了问题求解智能体的不良激励,确保它们的忠实性。
为了实现预算平衡,提出了一种随机算法。该算法的核心思想是在计算和分配税款时引入随机性,以确保税款的收支平衡。具体操作步骤如下:
1.
随机选择调整方案
:在计算出每个智能体应缴纳的 VCG 税款后,随机选择一种调整方案。调整方案可以是对部分税款进行减免、增加或重新分配。
2.
执行调整操作
:根据选择的调整方案,对税款进行相应的调整。例如,如果选择减免部分税款,则将某些智能体的税款减少一定比例;如果选择增加税款,则将某些智能体的税款增加一定比例。
3.
检查预算平衡
:在执行调整操作后,检查所有智能体缴纳的税款总和是否等于零。如果等于零,则说明实现了预算平衡;否则,重复步骤 1 和步骤 2,直到实现预算平衡为止。
以下是该随机算法的伪代码:
Algorithm 2: Budget Balanced Randomized Algorithm
Input: VCG taxes for all agents Al
Output: Balanced taxes for all agents Al
while true do
// 随机选择调整方案
adjustment_scheme = random_choice(adjustment_schemes)
// 执行调整操作
new_taxes = adjust_taxes(VCG_taxes, adjustment_scheme)
// 检查预算平衡
if sum(new_taxes) == 0 then
return new_taxes
end if
end while
7. 实验结果:会议调度问题
为了验证所提出方法的有效性,在会议调度问题上进行了实验。会议调度问题是一个典型的社会选择问题,涉及多个智能体(参会人员)对会议时间和地点的偏好。
实验设置如下:
| 实验参数 | 详情 |
| — | — |
| 智能体数量 | 10 - 50 |
| 会议时间选择 | 10 - 30 个可选时间 |
| 会议地点选择 | 5 - 15 个可选地点 |
实验对比了以下几种方法:
1.
传统集中式方法
:采用传统的集中式优化算法,不考虑智能体的自利性。
2.
未使用 VCG 机制的 DPOP 算法
:仅使用 DPOP 算法进行优化,不应用 VCG 机制。
3.
使用 VCG 机制的 DPOP 算法
:将 VCG 机制应用于 DPOP 算法,确保智能体的真实性。
4.
使用预算平衡随机算法的 DPOP 算法
:在使用 VCG 机制的基础上,采用预算平衡的随机算法。
实验结果表明:
-
传统集中式方法
:由于没有考虑智能体的自利性,容易受到智能体操纵的影响,导致最终结果偏离全局最优。
-
未使用 VCG 机制的 DPOP 算法
:在智能体如实声明偏好的情况下,能够得到较好的结果;但当智能体存在操纵行为时,结果会明显变差。
-
使用 VCG 机制的 DPOP 算法
:有效地防止了智能体的操纵行为,能够始终选择接近全局最优的解决方案。
-
使用预算平衡随机算法的 DPOP 算法
:在保证激励兼容的同时,实现了预算平衡,虽然牺牲了一定的帕累托最优性,但在实际应用中具有更高的可行性。
以下是实验结果的柱状图对比:
graph LR
classDef process fill:#E5F6FF,stroke:#73A6FF,stroke-width:2px;
A(传统集中式方法):::process -->|结果质量| D(低):::process
B(未使用 VCG 的 DPOP):::process -->|如实声明| E(中):::process
B -->|存在操纵| F(低):::process
C(使用 VCG 的 DPOP):::process -->|结果质量| G(高):::process
H(使用预算平衡算法的 DPOP):::process -->|结果质量| I(较高):::process
H -->|预算平衡| J(是):::process
8. 应用场景与展望
这种激励兼容的多智能体约束优化方法在许多领域都有广泛的应用前景:
1.
资源分配问题
:在云计算、物联网等领域,多个用户对有限的资源(如计算资源、网络带宽等)有不同的需求和偏好。通过应用该方法,可以确保用户如实申报其需求,从而实现资源的最优分配。
2.
交通调度问题
:在城市交通管理中,涉及多个交通参与者(如车辆、行人等)对交通路线的选择。利用该方法可以激励交通参与者提供真实的出行信息,优化交通流量,减少拥堵。
3.
市场机制设计
:在电子商务、拍卖等市场环境中,多个参与者的自利行为可能会影响市场的效率。该方法可以设计出公平、高效的市场机制,保证参与者的真实性,促进市场的健康发展。
未来的研究方向可以包括:
-
进一步优化算法复杂度
:虽然 DPOP 算法在一定程度上提高了效率,但在处理大规模问题时,其复杂度仍然较高。可以研究更高效的算法或对现有算法进行改进,以降低计算成本。
-
考虑更多的约束条件
:实际应用中,问题可能存在更多复杂的约束条件,如时间约束、空间约束等。可以将这些约束条件纳入优化模型,提高方法的实用性。
-
与机器学习相结合
:机器学习技术在处理复杂数据和模式识别方面具有强大的能力。可以将激励兼容的优化方法与机器学习相结合,以更好地处理不确定和动态的环境。
9. 结论
本文提出的激励兼容分布式优化方法为解决社会选择问题提供了一种有效的途径。通过分布式计算和收集 VCG 税款,引入了对智能体操纵的抗性,确保了智能体的真实性。DPOP 算法作为核心优化算法,通过三个阶段的操作实现了分布式优化。同时,预算平衡的随机算法在牺牲一定最优性的情况下,实现了税款的收支平衡,消除了智能体的不良激励。实验结果验证了该方法在会议调度问题上的有效性,并且展示了其在多个领域的应用潜力。随着研究的不断深入和技术的不断发展,这种方法有望在更多实际场景中得到广泛应用,为解决具有自利智能体的复杂优化问题提供有力支持。
超级会员免费看
583

被折叠的 条评论
为什么被折叠?



