可解释性规划与可解释行为生成
1. 可解释性的衡量
可解释性和可预测性的问题往往源于人类对智能体具体执行计划的不了解。为了解决这一问题,智能体除了调整自身行为外,还可以选择向人类传达其模型或当前计划的相关信息。
1.1 模型信息的传达
在众多沟通策略中,传达模型信息是关键。这需要将完整的模型分解为有意义的组件,并能够推断这些组件信息对人类模型的影响。为了实现这一点,我们假设规划模型可以用一组模型特征或参数来表示,这些特征或参数能够以有意义的方式传达给人类。
例如,类似 STRIPS 的模型提供了一种自然的参数化方案,将任何规划问题 $M = \langle F, A, I, G, C \rangle$ 表示为状态 $s \subseteq F$,具体如下:
[
\sigma(f) =
\begin{cases}
\text{init - has - f} & \text{if } f \in I \
\text{goal - has - f} & \text{if } f \in G \
\text{a - has - precondition - f} & \text{if } f \in pre(a), a \in A \
\text{a - has - add - effect - f} & \text{if } f \in adds(a), a \in A \
\text{a - has - del - effect - f} & \text{if } f \in dels(a), a \in A \
\text{a -
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



