机器人行为解释与沟通平衡策略
在人机协作场景中,机器人行为与人类对其的心理模型相互影响。为了让机器人行为更符合人类期望,我们可以通过优化行为、沟通等策略来实现。本文将探讨获取心理模型进行解释的方法,以及如何平衡沟通和行为,以提高机器人行为的可解释性、可读性和可预测性。
1. 获取解释的心理模型
1.1 近似解决方案
当需要更短的解释生成时间时,我们可以放宽解释的最小性要求,使用任意时间深度优先解释生成算法来获得近似解。该算法会为每个状态生成后继状态,包括应用模型编辑操作得到的节点,以及每个可能条件的两种后继情况(条件成立和不成立)。当搜索到达目标状态时,会询问人类关于可能条件的假设是否成立,根据回答决定是否返回当前解决方案或继续搜索。
1.2 无模型解释
在很多情况下,机器人可能没有关于人类知识的估计。此时,可以考虑对人类模型做出合理假设,如假设其是机器人模型的抽象或人类对机器人模型完全无知。也可以通过学习人类模型来解决问题,这在系统能收集一组人对系统决策的理解能力数据,且最终用户与这组用户有相似心理模型时较为适用。
我们假设代理可以访问一组解释性消息 ,这些消息仅包含原始机器人模型的信息。目标是学习一个关于计划步骤的标签模型,以评估计划在每个修改模型下的可解释性。标签函数如下:
[L_{\pi_R}: F \times 2^{\mu} \to {0, 1}]
其中,$F$ 是计划步骤的特征空间。通过这个标签函数,我们可以计算整个计划的可解释性得分,公式如下:
[argmin_{m \subseteq \mu} C(m) \text{ such that } f_{exp}(\pi_
超级会员免费看
订阅专栏 解锁全文
961

被折叠的 条评论
为什么被折叠?



