人机协作中的谎言检测与错误应对策略
1. 谎言检测新途径
在人机交互领域,基于瞳孔测量的方法和基于人类行为线索的方法,有望成为提升谎言检测效果的关键。具备从人类视角检测谎言能力的机器人,不仅能增强与人类伙伴的社交互动能力,还能在教学、护理或执法等职业中更好地为人类提供支持。
2. 人机协作中的错误应对研究
2.1 研究背景与问题提出
随着协作机器人在日常生活中的应用日益广泛,人机交互过程中出现错误难以避免。执行适当的恢复策略来应对不同类型的错误情况,对于协作机器人至关重要。为了了解人们对机器人应对错误情况的有效反应的看法,研究提出了三个问题:
- 是否存在处理一般错误情况的机器人反应偏好?
- 机器人反应的偏好是否取决于其所应对的错误情况类型?
- 机器人反应的偏好是否取决于人类的人口统计学特征和个性特质?
2.2 背景知识与相关研究
以往关于人机交互中错误情况的研究,大多集中在言语错误或对话中断方面。例如,Uchida等人提出了在对话中断时维持交互和人类动机的对话策略;Hoorn等人发现人们对自责的机器人评价更高;Kwon等人建议解释机器人故障可提高机器人的评价和人们继续协作的动机;Takayama等人发现机器人对成功和失败表现出相应表情会显得更聪明;Knepper等人提出的自适应语义生成器能让机器人更有效地请求帮助;Lee等人的研究表明道歉策略可使机器人更具能力和亲和力。
本研究将人机交互中的错误情况分为三类:
- 社会规范违反(SNV) :机器人的行为与常见社会规范不符,如在交互时看向别处。
-
超级会员免费看
订阅专栏 解锁全文
1058

被折叠的 条评论
为什么被折叠?



