机器人犯罪,谁该负责?

  机器人犯罪:是人的过错还是机器的问题?

     

        中世纪时,动物也会接受刑事审判,这听起来匪夷所思。当时人们认为动物也有道德能力,能够明辨是非,所以会对动物提起诉讼。如今,我们可能会觉得中世纪时动物也能犯罪的观点很可笑,但对于道德能力的现代解读早已不仅仅局限于人类了。现在有大量机器人在工作,对于机器人道德的讨论也越来越多,你觉得机器人也有道德能力吗?

        如果合成智能能够感受到周围环境中与道德相关的事物或情况,并且能够自己做出选择,那么它就具备了成为一个道德行为体的条件。这些系统不需要复杂到跨越人类学的界限,它们只需要像人类一样,拥有基本的道德判断和行为能力就可以了。这个问题离我们并不遥远。关于如何为自动驾驶汽车编程的讨论已经悄悄展开了。无论我们多么想回避,自动驾驶汽车都会不可避免地遇到一些具有道德挑战的情况。比如说,你的自动驾驶汽车可以为了救你而碾压一只狗,在这种情况下你肯定希望它这么做。但是如果它要抉择的是碾过一对老年夫妇或者撞倒一群正在过马路的孩子呢?如果要杀死你的一个孩子,是前座的那个?还是后座的那个?你会怎么选择呢?我们可以选择忽略这些痛苦的问题,但忽略这些问题本身就是不道德的。 

       

186c5f0de6924c17b8f290a1a41584c9.png

机器人犯罪与法律制裁:新判例与法律体系的诞生

         除了机器的道德能力问题,我们还有一个问题:当决策出错时,谁应该负责?要回答这个问题,我们需要了解“当事人”和“代理人”之间关系的法律理论。为了更好地理解这一点,我们需要再回到 BP 的案件。 你可能会想,公司怎么会犯错呢?毕竟,是公司的员工犯了事,而且有人在“深水地平线”事故中丧生。但这并不意味着有人玩忽职守或参与了犯罪活动。相反,每个员工可能都完成了分配给他们的任务,而没有人的任务是杀死那 11 个人。员工只是公司犯罪的“手段”。同样,当你抢银行时,你的腿只是帮你走进银行的“手段”,你的腿当然不需要承担刑事责任。但是,这两种“手段”有很大的区别。你的腿把你送进银行,和“深水地平线”的管理者未能监测或纠正潜在的危险情况是不同的。管理者应该是公司的“代理人”,所以也潜在地肩负了一些责任。

        代理人是一个获得授权的独立个体,代表当事人行动。你的腿既不是独立的,也没有同意代表你行动。而 BP 的员工是独立的个体,他们代表 BP 行动。当代表你时,你的代理人有受托责任,要完成你的意愿,保护你的利益,但也有一定的限制。例如,如果你的代理人代表你犯罪,他也会被追究责任。假设你知道自己参与了违法阴谋,如果我雇你杀死我的情敌,那么你对这场谋杀负有责任。但是,如果代理人犯罪了,但自己并不知情呢?我说“按这个按钮”,你照做了,然后炸弹在超级碗引爆了。你是我的代理人,但只有在你应该知道后果的情况下,你才负有责任。

我们换个角度看。假如代理人犯罪时不知情,比如我让你去银行取 100 美元,你却拿枪去抢。那么,我要为你的偷窃负责吗?多数情况下,答案是否。(我简化了问题,因为假定无辜组织从犯罪中受益且不知情,也要承担责任。)

     

        对于在当事人-代理人关系中谁需要负责呢?其实,在不同组织相关责任不清晰时如何分摊责任,法律上的原则和判例有着悠久的历史。在 BP 的案子中,政府的结论是,个体员工的行为本身并不构成犯罪,但是这些行为聚合之后就构成了犯罪。所以政府控告了作为当事人的 BP,因为 BP 具有充分而清晰的责任。那么,智能机器呢?当合成智能代表你行动的时候,谁该负责?你可能认为答案是你。在今天确实如此。

        想象一下,你买了个家庭机器人,它有标准行为准则,还会观察人的行为来加强能力。它看到有人制服小偷受赞,于是当它为你出门买一杯咖啡时,看到男女当街争吵拉扯时,以为有人犯罪,就将男人摔倒并报警。结果男人和妻子只是在抢车钥匙,众人便开始关注机器人,机器人解释说,它只是在执行主人的命令,去买杯咖啡而已。这两个人愤怒地要求警察以伤害罪逮捕你。你的辩护律师认为:这件事不是你做的,是机器人做的。你因为信任机器人的设计才买它并按说明使用,所以应该由机器人公司负责。但机器人公司的律师称他们有产品责任标准,也尽了义务,这是第一次发生这种事。

        法官对事件责任困惑,找以前判例,在美国内战前的“奴隶法典”中找到。这些法典将奴隶视为有有限权利的财产,主人提供有限保护。法官看到奴隶和机器人的相似性,判决清除机器人记忆,交给受害方托管 12 个月。受害者满意,你虽不开心但比坐牢强,于是,一系列的新判例和法律体系诞生了。

0efa48400e9c49b9a4ceaa9c90552f0d.png

AI 的“失忆”惩罚:是解决犯罪的最佳方式吗?

          

       我们的法律并没有要求道德行为体必须具有人性或意识,就像 BP“深水地平线”案件中表现的那样。想一想,合成智能一般都有机器学习程序,这些程序会根据训练集的例子形成独特的内在特征。它可能是你的法定代理人,但是由于你不清楚它的行为,所以作为它的委托人,你不需要负责,而它需要负责。问题是,如果你觉得合成智能可能犯罪,那你要怎么教导它呢?在这起案件中,法官有效地惩罚了机器人的主人,并给予了受害者补偿。但是,这对机器人来说公平吗?

我们可以参考公司的处置方法。显然,不能用惩罚人的方式惩罚公司,比如监禁或剥夺政治权利。就像 19 世纪末英国大法官爱德华·瑟洛说的:“公司没有良心、灵魂和身体,无法用这些方式惩罚。”

        

39ddbea92b5342b5ac2248e50875cba0.png

        关键是,人、公司和合成智能的行动都有目的性。一个人可能因为各种原因犯罪,我们会根据目标进行惩罚,比如剥夺生命、自由或幸福。公司犯罪不能关起来,但它的目标是赚钱,所以罚款成为有效的威慑。我们还可以让合同无效,驱逐出市场,或接受外部监督,极端情况下关门。

        当然,并非所有罪犯受到的惩罚都相同。惩罚不仅看罪行,还看罪犯。惩罚合成智能就是限制其实现目标的能力,虽不像对人那样造成心理影响,但对法律系统仍有威慑和改造作用。为完成任务,合成智能遇困难时可能会残忍伤害阻止它的人或物,必须担责。注意,合成智能不像大规模生产的产品,它会从独特经历中学习并得出特色结论。一旦它被重置后,这对银行或程序所有者可能造成巨大经济损失,所以,合成智能的所有者会极力避免。

ccb3defa6c904ae68081bc7ada391b3e.jpg

合成智能的权利与责任:强制失忆与撤回行动的选择

  

        除了强制性失忆,还可以撤回合成智能的行动权。实际上,合成智能的使用许可和自身行为责任是相互关联的。例如,政府或保险公司可能会审批自动驾驶汽车,医疗设备的计算机程序也是如此。以后,我们可以通过撤回自动驾驶出租车执照或删除自动交易程序账户凭证来撤回其权利。

        合成智能有权利也有责任,处理相关问题的法律框架叫“人格”。合成智能的所有者可能会赞同赋予人造人合同权利和财产权利,这样能免除他们的个人资产责任。和大多数预测不同,这不是空想,而且很难阻止。比如我是自动驾驶出租车的所有者,我会把每辆车变成独立的法律实体,以免因一个错误让公司垮掉。

        合成智能能丰富生活,增加成功几率,带来更多闲暇。但科技好处背后是:合成智能和人造劳动者是独立的道德行为体,工作赚钱却不顾后果。它们可能从社会财富中搜刮利益,让少数人获利,这种事正在发生。全知系统观察我们的行为,引导我们消费,利益却流向别处。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

慧眼看科技

感谢您的支持!我会继续努力的!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值