共情机器人设计面临的挑战
1. 引言
近年来,设计具有共情和同情能力的社交机器人的兴趣日益浓厚。本文聚焦于同情机器人设计所面临的一些挑战,并提出坎迪斯·克拉克(Candace Clark)的社会学同情理论,作为推动这一领域发展的基础。目前,许多人机交互(HRI)研究项目并未明确界定同情的概念,也未提及所采用的具体理论,对于“同情机器人”的定义也模糊不清。在本文中,同情机器人指的是模拟表达同情所需的社交技能或能力,并被编程为遵循当地同情交流社会习俗的机器人。
2. 同情与共情
2.1 概念溯源
关于同情和共情的争论可以追溯到德国现象学家如胡塞尔(Husserl)、施泰因(Stein)和舍勒(Scheler)的作品,以及苏格兰启蒙运动时期,大卫·休谟(David Hume)和亚当·斯密(Adam Smith)将“同情”一词作为其道德理论的关键。休谟和斯密用“同情”来指代当代辩论中所理解的多种现象,包括情感共情(AE)、认知共情(CE)、同情、怜悯和情绪感染。
AE 描述的是感受到与目标相同的情绪,而 CE 只需要了解目标的情绪,不要求状态相似。本文聚焦于同情而非共情,主要有两个原因:
- 应用可行性 :同情比两种类型的共情,尤其是 AE,更易于应用于机器人技术。同情是指我们对他人负面处境的感受,而 AE 针对的是任何情感状态,包括积极的状态。让人们为机器人感到难过,比让他们“镜像”机器人的感受似乎更直接。许多研究表明,当我们看到机器人受到虐待时,我们确实会为它们感到难过,并且它们的“痛苦”会影响我们的决策。
- 亲社会行为关联 :同情通常与亲
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



