机器人流程自动化(RPA)造成损失或损害的责任探讨
1. 引言
在当今的企业世界中,智能自主软件机器人取代人类活动并执行行政流程已成为现实。例如,在发票支付决策、营销活动的客户识别以及处理客户投诉等方面,软件机器人都发挥着重要作用。然而,当这些软件机器人造成损害时,责任该如何界定呢?
以亚马逊的虚拟助手Alexa为例,自2017年推出以来,德国警方报告了多起Alexa异常事件,如在夜间大声播放音乐,导致邻居报警。在Pinneberg的一个案例中,Alexa被音乐流媒体服务远程激活并将音量调至最大,且没有直接的人类行为导致这一夜间干扰。最终,亚马逊出于善意支付了约3000欧元的警方出警费用。但问题仍然存在:当一个自主运行的软件系统造成损害时,谁应真正承担责任?
在企业环境中,越来越多的流程也由软件程序(即软件机器人)实现自动化。机器人流程自动化(RPA)涵盖了一系列支持使用软件机器人实现业务流程自动化的方法和技术概念。这些系统通常由输入传感器、智能中心和输出执行器组成,智能中心可以从简单的基于规则的决策到使用人工智能(AI)等先进概念的认知机器人。以发票验证为例,这是几乎每个组织都有的行政流程,RPA自动化该流程时可能出现两种错误:一是正确的发票未支付,可能给第三方造成违约的财务损失;二是支付了不合理的发票,可能给公司自身带来财务损失。在这两种情况下,都需要确定是否有人应对所造成的损害负责。
判断RPA系统损害的责任是一个复杂的问题。从法律角度看,机器人的法律处理存在一些科学问题,如机器人的自我责任和现有法律的充分性;从应用角度看,RPA系统的当前发展需要结合计算机科学和法律的跨学科法律指导。本文主要聚焦于民事责任,并以欧洲法律传统(主要是德国法律传统)为例进行
超级会员免费看
订阅专栏 解锁全文
47

被折叠的 条评论
为什么被折叠?



