16、公正主义伦理学的局限与人工智能道德地位探讨

公正主义伦理学的局限与人工智能道德地位探讨

1. 数据感知的实证问题

在探讨相关伦理问题时,首先面临一个实证问题:当数据声称有某种感受时,它是否真的以类似于人类感受事物的方式去感受。实际上,在判断人类此类声称的真实性时,我们都未能做到十分确定。所以,谨慎行事或许会成为我们长期的实际解决方案。然而,这种方案有其局限性。如果数据存在与人类截然不同的道德相关特征,我们现有的伦理方法可能就会失效。

2. 自我学习人工智能机器的难题

关于创造和与自我学习人工智能(AI)进行交互的伦理影响,已有不少文献进行了探讨。相较于人工智能的道德地位和身份问题,我们更应担忧另一个问题:当人工智能最终取代人类时,它们会如何看待人类?是将人类视为不完美、应被根除的碳基生命形式,还是认为人类具有道德地位、值得生存?

对于自我学习的人工智能机器,如类似升级前的戴塔(Data)这样的机器人,确定其道德地位和身份的问题更为棘手。这类机器没有像高等哺乳动物那样明确的生理能力来感受痛苦,因为它们没有能直接产生痛苦和苦难的生物成分。那么,在判断其道德地位时,诸如推理能力、记忆、对未来的感知或自我意识等人格标准是否适用呢?

罗伯特·斯帕罗(Robert Sparrow)提出了一种不同的策略——图灵分诊式测试(Turing Triage type test),以协助确定人工智能是否具有道德地位。原始的图灵测试旨在检验机器能否以让人类误以为在与成年人交谈的方式进行交流。2014 年,据说有一台人工智能机器成功通过了图灵测试。而斯帕罗的图灵分诊测试则不同,它通过询问计算机在道德困境(如必须在两条人类生命中做出拯救选择的“分诊”情况)中能否取代人类,来判断计算机是否达到了与人类相当的道德

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值