AI的罪责认定:概念、判定与挑战
1. AI罪责判定的困境与历史类似问题
科学家和普通人普遍认为,即便AI有意识且可被视为对某行为负有“法律罪责”,但其罪责也难以确定,因为很难了解AI的决策过程。AI透明度的局限只是法律问题的潜在来源之一。我们需要探讨确定AI责任人或AI自身罪责的问题,尤其是当AI的行为从法律角度看应受谴责时。
几个世纪以来,类似问题一直存在。由于法律责任与道德责任相关联,法律上的罪责是从被判定主体对行为本身的角度来审视的。判断一个生物对其行为的心理态度,需要洞察其心理状态。对于人类来说,在一定程度上可以洞察他人的心理状态。认知科学领域有几种关于社会认知的理论:
- 理论论(TT) :假设社会认知是主体根据民间心理学对他人进行主动推断。
- 模拟论(ST) :
- 推论性ST :假设社会认知基于主体自身的思维模式运作。
- 亚个人或神经ST :假设镜像神经元系统为社会认知提供了一种快速、无意识的机制,无论执行动作的是自己还是他人,该系统都会被激活。
- 交互论(IT) :假设对他人心理、意图和信念的感知是直接的、非推论性的和交互式的,反对TT和ST的表征主义以及与具身交互的分离。
这些假设表明自然科学倾向于证实人类能够洞察他人的心理状态,从科学角度看,将罪责归咎于人类的法律实践似乎是合理的。然而,当需要洞察非人类生物的心理状态以判定罪责时,问题就出现了。例如,动物曾受到刑事起诉和法律惩罚,如何洞察动物的心理态度并判定其有罪呢?
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



