具身人工智能能否成为道德主体?
1. 意识在人工道德主体中的作用
有一种观点认为,机器缺乏生物主体所拥有的意识,因此不能成为道德主体。目前,我们难以描述意识究竟是什么,也无法明确宇宙中哪些实体具有意识,甚至无法衡量人类自身意识的程度。所以,即便机器表现得如同有意识一般精准,也很难让怀疑者相信它真的具有意识。
Steve Torrance在2008年的研究中探讨了这一问题。他认为,创造具有意识的人工智能会带来诸多伦理问题,这将要求我们扩展道德范畴以涵盖这些实体。而我们在扩展道德范畴以涵盖所有人类方面进展缓慢,对于动物和环境的道德地位也尚未达成共识,因此增加人工主体可能会挑战我们尚不发达的道德直觉。
Torrance指出,人类通常认为共享意识是彼此视为道德平等的关键。例如,如果我们认为一个人没有感受痛苦的意识能力,只是表现出痛苦的外在行为,我们可能就不太会对其产生道德关怀;如果认为一个人是没有意识的“僵尸”,我们也不太会判定其负有道德责任。这表明道德地位与定性的意识状态之间可能存在内在联系。
由于缺乏机器具有意识的证据,Torrance放弃了意识是人工道德主体(AMA)必要条件的观点,转而试图在不涉及意识的情况下论证机器的道德地位。
2. 人工主体的道德地位:有无意识之分
2.1 有机观点
Torrance提出了“有机观点”,该观点包含以下五个主张:
1. 具有有机或生物特征的存在与“单纯”的机器之间存在关键的二分法。
2. 只有真正的有机体(无论是人类还是动物,无论是自然产生还是人工合成)才适合被视为具有内在道德地位的候选者,而明显属于机器范畴的实体不能被合理地认为具有内在道
超级会员免费看
订阅专栏 解锁全文
34

被折叠的 条评论
为什么被折叠?



