解释生成中的模型调和与心智模型获取
1. 解释分类与模型调和相关研究
在解释相关研究中,多数工作假定人类能正确理解手头任务,可在无模型调和的情况下完成重建。同时,在政策沟通中需解决词汇不匹配问题,可能要先将政策转化为用户能理解的术语。
文献中常见的解释信息分类方式是根据其能解决的解释性问题类型进行组织。有研究提供了与规划相关的全面解释性问题列表,涵盖特定计划及整个规划过程相关的问题。
解释作为模型调和的思想最早被提出,相关研究聚焦于STRIPS风格模型的应用。用户研究评估了解释的效果,涉及三种模型调和解释类型:MCE、MPE和PPE,其中PPE有改进版本,会考虑人类模型中的可能最优计划以保证解释的对比性。后续研究对模型调和解释领域的早期工作进行了更统一的梳理。
除了确定性STRIPS风格规划模型,研究者也开始关注其他规划形式,如马尔可夫决策过程(MDPs)和逻辑程序中的模型调和。机器学习领域也有类似的解释工作,例如LIME提出了一种模型无关方法,通过生成可解释的线性模型局部近似当前实例的动态。此外,还有一些利用模型和/或计划抽象的解释工作,以及通过提供因果链解释特定行动效用、通过呈现不同目标间冲突解释多目标规划问题的方法。
2. 获取用于解释的心智模型
此前生成解释作为模型调和的讨论存在较强假设,即预先确切知晓人类对机器人的模型。接下来将探讨如何放宽这一假设,研究在机器人对人类心智模型信息逐渐减少的场景下如何进行模型调和。
2.1 城市搜索与侦察领域
以城市搜索与侦察(USAR)领域为例,远程机器人在灾难响应行动中部分或完全由外部人类指挥官控制。机器人负责侦察对人类有害的区域并按指令报告周
超级会员免费看
订阅专栏 解锁全文
1369

被折叠的 条评论
为什么被折叠?



