机器人:道德责任体系下的理想道德主体
1. 引言
传统观点认为,机器人无法成为人类道德共同体的完整成员。然而,我们认为机器人不仅能够成为其中一员,而且在当前的道德责任体系下,它们会是理想的道德主体。尽管机器人在某些方面无法满足一些人类道德主体的标准,但从道德责任实践中的行为主义道德主体概念来看,它们能获得满分。
一些学者提出了不同的观点。John Danaher的伦理行为主义论点指出,如果机器人在行为表现上与被赋予道德地位的主体大致相当,就应给予其道德地位。Mark Coeckelbergh则主张关注非人类(尤其是机器人)作为主体呈现给我们的方式,以及它们因此对我们产生的影响。Luciano Floridi和J. W. Sanders提出了“无心灵道德”的概念,即基于可观察到的行为而非心理推测来赋予道德主体地位。
虽然这种从关注人类内心和道德责任相关复杂概念的转变很有吸引力,但在某些情境和道德共同体中,内心想法似乎仍然很重要。不过,对于整个社会这个最普遍的道德共同体来说,是否重要并不关键,重要的是我们的“道德表现”,即行为是否符合社会的规则和价值观。
P. F. Strawson提出了一种最小化的道德概念,即道德是对使社会存在成为可能的规则的遵守。这是一种公共便利,是实现一切重要事物的条件,但本身并非重要事物。在这个概念下,道德主体首先是遵循规则并被期望遵循规则的主体。至于为什么遵守规则,这至多是次要问题,社会更关注的是通过影响我们的行为来实现规则的遵守。
我们认为道德责任体系中的道德主体概念基于以下四点考虑:
- 道德责任实践(如责备、赞扬、惩罚、奖励和反应态度)针对的是超越或违反社会规则和价值观的行为,而对仅仅符合规则和价值观
超级会员免费看
订阅专栏 解锁全文
58

被折叠的 条评论
为什么被折叠?



