公众如何看待机器人手术责任

探索公众对机器人手术中责任与责任的看法

随着机器人系统变得越来越自主,当人类受到伤害时,确定责任变得更加复杂。这是外科机器人系统领域中一个具有法律影响的新兴挑战。iRobotSurgeon调查探讨了公众对外科机器人领域责任和责任问题的看法。

Advances 在机器学习方面的进步使得日益自主的机器人系统得以发展

Advances 在机器学习方面的进步使得日益自主的机器人系统得以发展,这些系统能够捕捉其环境中的传感器信息,独立于人类监督做出决策,并从经验中学习。机器人自主性的提高给确定责任带来了法律挑战。对于外科机器人系统而言,这一问题尤为突出,因为手术本身具有固有的风险和潜在的伤害。我们认为有必要探讨公众对这些问题的态度,因此开发了iRobotSurgeon调查。该调查提出了五个患者受到伤害的假设情景(表 1),受访者需要判断他们认为谁应负主要责任:外科医生、机器人制造商、医院或其他方(图 1)。

外科机器人系统的分类

一种针对外科机器人系统的六级自主性分类系统,依据操作员参与程度而定1。

  • 0级(无自主性) :完全由操作员控制的系统,包括远程操作机器人系统。
  • 1级(机器人辅助) :机器人向操作员提供指导,但操作员仍保持对系统的控制。这包括智能设备(如智能内窥镜),可对重要解剖结构提供反馈信息。
  • 2级(任务自主性) :机器人系统在特定任务中具有自主性,例如缝合皮肤,这些任务由操作员启动。
  • 3级(条件自主性) :系统生成任务策略,由操作员选择后,机器人可在无需密切监督的情况下执行。
  • 4级(高度自主性) :机器人可以做出医疗决策,但需在合格医生的监督下进行。
  • 5级(完全自主性) :机器人系统能够执行整个手术过程无需监督。

其他分类系统也已被提出,例如基于外科医生‐机器人交互程度的分类系统2。

为了开展iRobotSurgeon调查,我们提出了一种简单的三阶段分类系统,旨在便于公众理解,同时涵盖机器人系统的全部范围。

人工控制的机器人系统

这些系统包括由外科医生完全控制,而外科医生有时可能位于与手术位置不同的地方(远程手术机器人)。其他机器人则集成在手持式器械中,例如,当医生在靠近身体重要部位进行操作时,可能会向医生发出警告(手持式机器人)。

机器人辅助系统

这些系统帮助外科医生执行特定任务。这可能包括缝合伤口、将针头插入大脑,或插入螺钉以固定骨折的骨骼。外科医生在场并监督机器人。

自主机器人系统

该系统可以在最少或无需人工监督的情况下进行完整的手术过程。

当前外科机器人系统的状态及法律环境

这里有一些数字 ber of h人类控制 lled 市场上的机器人系统,其中最著名的是直觉外科公司的达芬奇系统。这些系统可用于多种不同的手术,包括前列腺切除术和子宫切除术。

情景描述 案例
案例1 一位世界领先的心脏外科医生(外科医生A)使用远程手术系统在另一个国家对一名患者进行远程手术。在手术过程中,一条主要血管被切断。外科医生A无法通过机器人止血。手术室中的一名辅助外科医生(外科医生B)介入并控制了出血。尽管如此,患者仍然失血并受到伤害。 示意图0
案例2 一名外科医生在对患者进行手术时使用了机器人望远镜。该设备的目的是向外科医生提供一条重要血管位置的信息。外科医生计划利用这些信息及其解剖学知识安全地完成手术。手术过程中,机器人发生故障,向外科医生提供了不准确的信息。结果血管被切断,患者受到伤害。
案例3 一名患者接受手术,由机器人将螺钉植入其脊柱骨骼中。外科医生预先为机器人设定螺钉固定的位置方向,随后机器人在医生监督下独立实施手术。术后,患者苏醒后无法移动双腿。
后续扫描显示,一根螺钉被置入错误位置,导致脊髓损伤。经调查发现,外科医生已正确地对机器人进行编程,指令中明确要求螺钉避开脊髓。
案例4 一名外科医生建议患者进行髋关节置换手术。一台机器人独立完成了手术,负责监督的外科医生未进行干预。手术在技术上是成功的,术后扫描显示髋关节已按计划修复。然而,患者术后髋部疼痛加重,严重影响了其生活质量。
案例5 一台智能机器人开发了一种治疗胰腺癌的新手术技术。通过临床试验的研究表明,这种新技术优于现有治疗方法。一名外科医生将一名新确诊胰腺癌的患者转诊接受该手术。在手术过程中,机器人无法处理手术中的并发症,导致患者受到伤害。

它们完全由位于手术室内或在其他位置远程控制系统的外科医生掌控。近年来,更先进的系统已发布,包括帮助外科医生在肠道内导航的机器人辅助内窥镜,以及协助将椎弓根螺钉插入脊柱的机械臂3,4。正在开发可执行特定任务的机器人辅助系统,包括能够钻削颅底或对软组织进行自主缝合的系统5。鉴于技术发展的快速步伐,完全自主的‘机器人外科医生’可能在当前执业外科医生的职业生涯内出现。

在非自主机器人对个人造成伤害方面已有法律先例,主要发生在制造业6。这些案件通常通过以下方面来判定:机器人是否存在某种缺陷(产品责任),雇主是否存在过失(例如培训不足),或者雇员因未遵守安全指南而使自己处于危险区域。

在Jones诉W+M Automation一案中,一名雇员被机器人龙门架撞击,导致头部受伤7。该机器人系统由通用汽车公司安装,但未配备联锁系统,该系统可在员工进入机器的危险区域时停止机器运行。原告以过失为由起诉机器人制造商,但法院依据“部件”原则作出即决判决,该原则规定,如果一个无缺陷的部件被安装到另一个有缺陷的产品中,则该部件的制造商不应承担责任。在自主机器人技术领域,

零部件原则表明,如果由第三方开发的算法控制机器人系统,且机器人硬件无缺陷,则责任可能在于软件开发者。

在侵权法中,过失是用于描述导致个人或财产遭受不合理风险或损害行为的法律术语8。过失行为是指偏离“合理谨慎”之人不会采取的行为。将这一标准应用于自主机器人时的难点在于如何界定何为合理谨慎,特别是对于那些通过机器学习算法学习并发展新技术的机器人系统。过失责任的关键要素之一是可预见性;随着这些系统逐渐脱离预设指令,它们可能会表现出不可预见的行为,从而对过失责任问题带来复杂的困境。根据现行法律框架,即使机器人具有自主性,也不能对其造成的任何损害或伤害承担责任9。

与自动驾驶汽车和道德缓冲区的相似之处

一个值得参考的类似情况是自动驾驶汽车的责任问题。关于公众意见的调查发现,人们担忧如何确定自动驾驶汽车的责任问题10。鉴于控制权和决策权正从人类驾驶员逐步转移至机器人系统,这种担忧并不令人意外。杰弗里·加尼提出了一种简单模型,即在车辆处于自动驾驶模式时发生的大事故中,应由制造商承担责任。如果驾驶员在某种程度上仍拥有控制权,并且本可以避免碰撞,则他们就应该承担责任11。然而,人们担心,在涉及复杂自动化系统的损害事件中,人类行为者可能会承担过重的责任。玛德琳·伊丽什将此称为“道德缓冲区”,用来描述在人类控制有限的复杂人机系统中,人类承担了主要的法律责任12。伊丽什以法国航空447号航班坠毁事件为例,该事故导致机上228名乘客全部遇难。在这起悲剧性事故中,一次技术故障引发了一系列导致坠机的事件。

传感器故障导致飞行模式从自动驾驶仪切换至人工操控飞行模式。机组人员恐慌不断加剧,与反馈机制警报形成恶性循环,最终导致坠机。一项分析得出结论,此次空难是多因素的,既包括技术故障,也包括人类因素,如认知控制丧失和沟通中断。然而,媒体叙事却集中在人为因素以及飞行员在事故中的作用上。

iRobotSurgeon调查

已有若干研究致力于确定公众对自动驾驶汽车中复杂的伦理问题的期望和态度13。iRobotSurgeon调查旨在探讨外科手术系统责任问题的公众意见。该调查通过伦理学家和公众参与专业人士的反馈,采用迭代方式设计了五个假设情境(表1)。这些情境的设计没有明确指出应承担责任的主体,而是让受访者基于直觉判断他们认为谁承担最主要责任。该调查旨在了解即使机器人系统日益自主化,公众是否仍倾向于认为外科医生负有感知到的责任负担。同时,我们希望确定不同地区在责任归属判断上是否存在差异,而这些差异可能源于文化或法律背景的不同。总体而言,我们希望通过该调查阐明这一棘手问题,为政策制定者提供有价值的见解,并指导未来研究方向。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值