人机协作中的欺骗行为与应用解读
在人机协作的场景中,欺骗行为以及相关应用有着独特的研究价值。下面我们将详细探讨欺骗行为的相关情况以及其在不同领域的应用。
1. 人机协作中的欺骗行为
在人机协作场景里,欺骗或谎言存在一些潜在的应用场景:
- 信念塑造 :系统可以通过明确的沟通来塑造潜在队友的信念,从而说服队友采取自主代理认为能带来更高效用的行为。
- 善意谎言 :当精确解释的沟通成本过高时,机器人可以选择传达一个更简单的“解释”。虽然这个“解释”在技术上包含不真实信息,但它用于为最优行为提供理由。特别是当人类队友处理原始解释在计算上成本高昂或耗时较长时,这种善意谎言会特别有帮助。
那么,一个代理如何说谎呢?一般来说,可以利用相同的模型空间搜索。与将模型更新限制在真实机器人模型约束范围内不同,此时的搜索可以对模型进行任意更新。如果代理不被允许引入新的流或新的动作,对于经典规划领域而言,这仍然是一个有限的搜索空间。不过,这比解释中所考虑的搜索空间要大得多,这也引出了一个有趣的观点:至少从计算角度来看,说实话可能是一种更简单的策略。
为了约束搜索空间,可以限制谎言允许的变化类型。一种自然的选择是将谎言限制为从模型的命题表示中移除因素的那些(即 .MRh )。这种谎言在文献中有时被称为省略式谎言。另一种可能性是在有相关信息时,利用模型演化或漂移的理论来考虑对模型进行可信的更改。或者,如果谎言需要包含新的可能性(包括新的动作或流),可以考虑利用大语言模型(如 Brown 等人 [2020])或像 WordNet [Fellbaum, 2010] 这样的知识库以有意义的方式引入
超级会员免费看
订阅专栏 解锁全文
59

被折叠的 条评论
为什么被折叠?



