机器道德行为:从原道德机器到道德机器的探索
1. 引言
随着机器人自主性的增强,将其融入社会生活虽带来便利,但也对人类的身心健康构成风险。当前机器人在道德层面尚“盲目”,这引发了两个关键问题:如何确保机器人行为符合伦理考量?是否可能打造真正具有道德的机器?
从进化视角看,我们应采用中间模态视角分析机器道德。人类道德认知并非凭空出现,而是在既有原道德能力基础上进化而来。生物和技术进化都具有路径依赖性,若要在未来创造道德机器人,可能需先构建特定类型的原道德机器人。同时,对于如何让近期的非道德机器人符合伦理行为,这与创造道德机器的问题相关联。许多社交动物具有原道德能力和社交倾向,这些能力不仅与人类早期心理能力同源,还能促使其产生符合伦理的行为。因此,我们可尝试实现与社交性相关的原道德能力,这或许是发展类人道德的必要阶段。
2. 道德与原道德机器
根据詹姆斯·摩尔的分类,“伦理主体”有五种不同含义,其中隐式伦理主体、显式伦理主体和完全伦理主体与本文相关。隐式伦理主体是预先编程以符合伦理的方式行为,可称为“正确行为者”;显式伦理主体基于伦理理论或原则进行计算;完全伦理主体则需具备基于道德理由做出选择并对行为负责的能力。
2.1 探寻机器道德
部分关于机器人道德的讨论试图重新定义道德主体,然而我们应关注产生明显伦理行为的属性。实证道德心理学表明,人类在道德情境中的决策常受直觉、非意识和情感评估的支配,如平等感、避免伤害、同理心和利他主义等社会本能。道德主体的标准更严格,但道德行为中涉及的心理机制可能利用了单独来看并不充分的心理能力。人类在常规情况下是隐式伦理主体,仅在直觉不适用时才会进行道德原则的明确思考。因此,若要创造“正
超级会员免费看
订阅专栏 解锁全文
883

被折叠的 条评论
为什么被折叠?



