救援机器人中的伦理问题:范围综述
背景
救援机器人技术是现场机器人领域内相对较新的学科。其目标是为作业区域的救援人员提供在灾害现场远程感知与操作的能力(墨菲,2014),即“由自然或人为事件引发的、导致重大人员死亡、伤害、心理压力、物理破坏和经济崩溃的现象”(Cuny,1992)。
救援机器人可使操作员进入人类无法进入、过于危险或进入缓慢的恶劣环境。它们还可以作为远程传感平台,使人类能够与损毁环境进行交互(Adams 等人,2014;Kochersberger 等人,2014;Stefanov 与 Evans,2014)。例如,救援机器人可帮助视觉检查并绘制倒塌建筑物的内部结构,检查损坏情况(Devault,2000;Ellenberg 等人,2015;拉坦齐与米勒,2017;雷基乌托与斯戈里比萨,2017;托罗克等人,2014),放置声学、热学或地震传感器以监测情况,或快速清除大量瓦砾以协助营救受害者(墨菲与斯托弗,2007;墨菲等人,2009;施泰姆勒等人,2009)。提供此类快速进入和干预应能减少生命损失、减轻伤害,并总体上加快从灾难中恢复的速度(墨菲,2014)。
首次报告在灾难现场使用救援机器人是在2001年,当时机器人辅助搜救中心在纽约市世界贸易中心灾难中使用了DARPA战术移动机器人项目的机器人(墨菲,2014)。自那以后,救援机器人已在世界各地的矿难、地震、泥石流、核灾难、飓风、漏油事件和建筑物倒塌等事故中部署,从而获得了广泛的公众关注。在未来几年,由于自然灾害和人为灾难的影响日益加剧,预计在整个灾难生命周期的各个阶段对这类机器人的需求都将增加(墨菲,2014)。鉴于对其角色的这一更广泛认识,“救援机器人”常被称为“灾难机器人”;因此,这两个术语将在本文中互换使用。
本文中,“救援人员”、“响应人员”和“操作员”这些术语也将互换使用。
用于灾难场景的机器人类型包括无人地面车辆(UGV),其携带多种传感器,通常配备履带以穿越非结构化地形;无人机(UAV),可为灾难响应行动提供空中支援;以及无人海洋车辆(UMV),例如可用于执行水下检查和投放减灾设备。尽管这些机器人大多数仍由人类控制,但能够减少操作员对底层控制需求的半自主系统正变得越来越普遍(Birk & Carpin, 2006; Delmerico 等, 2019; Zuzanek 等, 2014)。
发生在灾难场景中的行动充满伦理挑战。其中许多挑战与响应人员必须在危险、混乱和高压条件下开展工作有关,也与时间、物资和能力的缺乏这一工作特征相关。关于例如应集中救援力量于何处、应承担何种风险、优先搜索谁、谁应获得优先治疗、谁必须等待,以及如何最优利用有限资源等决策具有道德负担(Gustavsson 等, 2020),而这些决策的后果可能影响受害者和响应人员,以及其他利益相关者。
存在政策和指南以支持响应人员在其工作中(医学伦理手册。世界医学协会., 2015;国际护士理事会护士职业道德规范。国际护士理事会., 2012),(格林等人,2003)。然而,对于不具有医疗角色的人员以及在特定灾害场景中进行基于伦理认知的实际决策,可用的指导非常有限(古斯塔夫松等人,2020)。这种情况因缺乏专门的培训项目来发展此类决策所需的知识和技能而进一步加剧(古斯塔夫松等人,2020)。
救援机器人在作业区域中的日益增多很可能带来额外的伦理复杂性,这种复杂性将部分取决于所使用的机器人类型及其部署的具体情境。
在某些领域,例如工业、军事和教育领域,关于机器人应用的伦理问题已受到广泛关注(Lichoki 等人,2011)。对于机器人在医疗保健中的使用也进行了大量反思,探讨了其对隐私(Sharkey & Sharkey,2012)、人权(Sharkey & Sharkey,2011)以及患者自主权(Sparrow,2016)的影响。然而,似乎尚未投入太多努力来揭示和阐明在灾难场景中使用机器人时可能出现的伦理问题(Harbers 等人,2017)。因此,为了在救援机器人尚未普及且其使用尚未无处不在之前,帮助及时聚焦于救援机器人技术的伦理反思,
我们对相关文献进行了一次范围综述。
方法
我们遵循了阿克斯伊和奥马利提出的著名范围综述框架(Arksey & O’Malley, 2005)以及后续建议(科尔昆等人,2014;莱瓦克等人,2010),用于开展和报告范围综述。
尽管对于范围综述的定义或目的尚无明确共识,但通常将其描述为用于映射或综合各种证据以传达研究领域的规模和范围的工具(莱瓦克等人,2010)。
根据阿尔克斯和奥马利的观点,通过开展范围研究,研究人员可以调查特定领域内研究活动的范围、广度和性质,确定是否有必要进行完整的系统综述,总结并传播研究证据,或识别现有文献中的空白(Arksey & O’Malley,2005)。与系统综述不同,范围研究通常不对所涵盖的研究质量进行评估(Grant & Booth,2009;Rumrill et al.,2010)。与叙述性综述或文献综述不同,范围研究需要对文献进行分析性重新解读。当某一主题的文献较为复杂或异质性强时,范围综述尤为适用,其可涵盖多种不同研究设计和方法所得出的研究结果,在某一主题的相关证据尚处于发展阶段时可能特别有用(Levac et al.,2010)。因此,范围综述非常适合用于整合尚未被全面梳理的主题领域的文献,例如本文所致力于综述的主题。
本范围综述调查了已发表的文献,无需伦理审批。
我们采用两阶段检索策略,筛选了讨论救援机器人使用相关伦理问题的文献:(1)检索五个数据库(谷歌学术、IEEE Xplore、ScienceDirect、Scopus 和 Web of Science),以及(2)检索最终纳入定性综合的文献的参考文献。我们在标题、摘要和关键词中检索以下术语:伦理 AND (“救援机器人” OR “救灾机器人”)。根据各个搜索引擎或数据库所使用的语言对检索逻辑进行了调整。按照大量类似综述所采用的方法,仅考虑谷歌学术按相关性排序的前 250 条结果。初步检索共获得 429 条记录。根据 Pham 及其同事(Pham 等,2014)的建议,后续的研究筛选过程参照系统综述和元分析优先报告条目(http://prisma-statement.org)进行指导(见图 1)。
在第一轮筛选阶段,一名研究人员对论文的标题和摘要进行了审查。仅纳入以英语撰写的论文。排除重复文献、与主题无关的论文,以及学位论文、大众媒体文章、报告、未经同行评审的书籍及章节、演示文稿和观点文章。最终得到42篇论文进入进一步筛选。
第二轮资格筛选由研究团队的两名成员独立进行。每位研究人员根据纳入与排除标准对论文进行评估,并对各自独立的结果进行比对。如有关于论文资格的分歧,则由第三位研究人员参与解决。
如果文献满足以下所有条件,则被纳入:
– 发表在谷歌学术、IEEE Xplore、ScienceDirect、Scopus 或 Web of Science 收录的同行评审出版物中的论文;
– 英语论文;
– 包含此前定义的相关检索词的论文;
– 以救援机器人相关的伦理问题为主要研究重点,或至少在其独立部分或章节中进行了讨论的论文;
– 2001年或之后发表的论文。
此外,以下内容构成了我们的排除标准:
– 关注机器人学中的伦理问题但仅偶尔提及救援机器人的论文;
– 关注救援机器人技术但仅偶尔提及任何相关伦理问题的论文。
一旦确定了符合所有标准的论文,就会对每篇论文的参考文献列表进行筛选,以查找额外的相关文献。
根据利瓦克及其同事(莱瓦克等人,2010)的建议,我们进行了描述性定量综合和主题分析。依据阿克斯伊和奥马利(阿尔克斯和奥马利,2005)的方法,我们的描述性定量总结包括所识别文章的详细信息、出版年份、学科/研究领域、研究类型、所研究的机器人类型等。在主题分析过程中,论文采用多步骤编码流程进行编码,包括开放编码、主轴编码和选择性编码,并使用基于网络的应用程序Dedoose(www.dedoose.com)。第一阶段,识别并标记意义单元,以便从数据中形成类别(开放编码)。随后对开放编码进行归类,将相似的编码进行分组、提炼并合并为更大的主题(主轴编码)。由此产生的概念上稳定的主题模式被进一步组织并归纳为高阶概念主题。选择性编码则涉及对这些概念的整合与完善(科尔宾和斯特劳斯,2008)。最后,研究团队全体成员通过讨论对研究结果进行了整合与验证。
结果
定量数据综合
有六篇论文符合我们文献综述的筛选标准。其中大多数发表在科学期刊上(6篇中的4篇),且全部分布于不同的出版物中(见表1)。没有在任何一篇论文的参考文献列表中识别出相关出版物。
未发现任何论文发表于2008年之前,5/6的论文发表于2014年至2020年之间(见表1)。
这些研究主要属于机器人学(n = 3)、机器人伦理(n = 3)和机器伦理(n = 3),但也涉及技术评估(n = 2)以及信息系统(n = 1)。大多数论文包含了不同学科的元素(见表2)。
大多数研究属于概念性和/或技术性,但有2/6的研究采用了混合方法,包括对相关伦理问题进行实验性探讨。
大多数出版物讨论了无人地面车辆(4/6),其余则聚焦于无人机或同时涉及无人地面车辆和无人机(见表2)。
六篇论文中有五篇提到了在研究与创新中践行伦理的方法,四篇使用模拟或场景来预测在搜救任务中使用机器人所带来的伦理影响及其他后果;另一篇则通过在搜救环境中对机器人系统部署的两个案例研究,来检验机器人开发的社会伦理方法(见表2)。
定性文本分析
定性文本分析强调了七个核心伦理问题:公平与歧视;虚假或过度期望;劳动力替代;隐私;责任;安全;信任。表2中报告了这些主题在六篇出版物中的出现次数。
| 标题 | 作者 | 年份 | 出版‐tion 期刊/书籍/会议录 |
|---|---|---|---|
| 分析人类对危险环境中自主系统的信任 | 斯托蒙特,D.P | 2008 | 第23届人工智能 AAAI 会议论文集 |
| 未来机器人系统创造性原型设计的协同进化场景 为民用保护未来机器人系统的创造性原型设计构建协同演化情景 民事保护 | 卡尔森,H.,约翰松,L.,维克曼‐斯万,P.,德雷伯格,K. H | 2014 | 技术预测与社会变革 |
| 设计自主爬行设备 用于检测个人连接设备并支持救援行动:技术和社会关切 | 泰兹,T. J.,塞巴斯蒂安,O.,里扎,C | 2015 | 无线电科学公报 |
| 探索机器人辅助搜救的伦理领域 辅助搜救 | 哈尔贝尔斯,M.,德格里夫,J.,克鲁伊夫‐科巴伊‐ová, I., 内里克斯, M. A., Hindriks, H.V | 2017 | 一个拥有机器人的世界。智能系统、控制与自动化:科学与工程,第84卷。施普林格,Cham |
| 作为实验性技术的机器人伦理:将预见与探索相结 方法:将预见与探索相结合 评估社会影响 机器人学 | 阿米戈尼,F. & 夏法纳蒂,V | 2018 | IEEE机器人与自动化杂志 |
| 公平导航规划:一种资源 公平性的表征与设计 移动机器人 | 布兰道,M.,吉罗特卡,M.,韦伯,H.,Luff,P | 2020 | 人工智能 |
| 论文 | 学科/研究领域 | 研究类型 | 方法 | 模拟/场景/案例研究 | 机器人类型 | 实证元素 | 伦理主题 |
|---|---|---|---|---|---|---|---|
| Stormont.,(2008) | 机器人学, 机器人伦理, 机器伦理 | 概念性, 技术性 | N.A | 在NetLogo仿真环境中进行消防模拟,以增进对危险环境中对自主系统不信任的理解 | UGV | N.A | 信任 |
| Carlsen et al.(2015) | 技术评估, 机器人伦理 | 概念性, 实证性 | 协同进化场景用于创造性原型设计 | 开发协同进化场景,以审视未来用于民用保护的自主机器人系统的潜在影响 | UGV | 与机器人专家、潜在终端用户及研究团队成员(参与者人数未报告)的研讨会 | 公平与歧视, 劳动力替代, 责任 |
| Tanzi et al.(2015) | 机器人学, 信息系统, 机器人伦理, 机器伦理 | 概念性, 技术性 | 伦理设计 | 对自主无人机系统进行模拟,以预测其如何被用于支持“支持伦理、法律和社会行为的社会技术设计” | UAV | N.A | 公平与歧视, 隐私, 责任, 安全 |
| Harbers et al.,(2017) | 机器人伦理 | 概念性, 实证性 | 价值敏感设计 | N.A | UAV, UGV | 与消防员的三次研讨会(总共23名参与者) | 劳动力替代, 虚假或过度期望, 隐私, 责任, 安全 |
| Amigoni and Schiaffonati(2018) | 技术评估 | 概念性 | 探索性实验 | 考虑在搜救环境中部署机器人系统的两个案例研究 | UGV | N.A | 公平与歧视, 安全 |
| Brandão et al.(2020) | 机器人学, 机器伦理 | 概念性, 技术性 | 负责任创新 | 考虑在救援机器人设计中融入公平性,获得正式定义,将其应用于系统,并模拟系统部署以预测挑战 | UAV | N.A | 公平与歧视, 隐私 |
两篇论文讨论了通过与利益相关者进行定性研究的归纳过程所引发的伦理问题(Carlsen等人,2015;Harbers等人,2017)。另外三篇论文则描述了使用模拟方法来进一步理解在其他地方已识别出的伦理问题的影响(Brandao等人,2020;Stormont,2008;Tanzi等人,2015)。仅有一篇论文研究了实际机器人部署的案例——尽管其中两个案例之一的环境高度受控——以测试引入伦理框架的效果(Amigoni & Schiaffonati,2018)。
公平与歧视
与公平性和歧视相关的伦理考量是我们在审查中讨论最频繁的问题(6篇论文中的4篇);其中三篇论文从灾难受害者角度探讨了歧视问题,另一篇则涉及救援操作人员。正如阿米戈尼和夏丰纳蒂指出的:
风险与收益应公平分配(⋯⋯),以避免某些个体仅承担成本而其他个体仅享受收益的情况。这一条件对于搜救机器人系统尤为重要,例如当机器人需要决策优先向人类救援人员报告已探测到的受害者顺序,或决定首先尝试运送哪位已探测到的受害者时(阿米戈尼 & 夏丰纳蒂,2018)。
在他们的论文中,布兰道及其同事提供了一个关于这一问题的启发性实际案例(Brandão et al.,2020)。作者描述了一个假设情况:灾难发生后,一架无人机被部署用于搜寻受害者并运送药品。每次任务结束后,该无人机需要返回位于城市中心的基地进行电池充电和补给。作者指出,由于城市人口分布往往在密度、年龄、种族和性别方面并不均匀,因此无人机规划的飞行路径将导致这些特征的分布出现偏差。例如,如果该城市中心区域集中了大量大学生,并且无人机从基站周围区域开始执行搜索任务,那么它主要发现的将是年轻人,而这些人通常比居住在其他地区的老年人更容易幸存。因此,就找到尽可能多的人而言,该无人机可能是成功的,但与此同时,它却未能遵守分配公平的原则——在此情境下,应优先救助风险最高(即最需要被首先发现)的人群。这样的机器人系统将证实甚至加剧人们对灾难救援任务的常见批评观点,即灾难应对地点的选择政策往往是不公平的(O’ Mathuna et al., 2013)。
坦齐及其同事在考察危机管理和灾难救援期间所使用的信息系统的影响时,也强调了社会正义问题的风险,指出应急系统中常常缺乏包容性设计,而这可能导致某些社会群体和社区被边缘化,甚至加剧其边缘化程度(Tanzi et al., 2015)。
卡尔森等人预测,男性救援人员由于传统上参与风险最高且体力要求最高的救援行动,可能会受到歧视,因为他们最有可能被救援机器人所取代(卡尔森等人,2015)。
错误或过度的期望
这一主题仅由哈伯斯及其同事讨论过,他们指出,利益相关者通常无法对救援机器人的能力与局限性做出合理的评估。在作者看来,这种无能可能导致利益相关者高估或低估救援机器人的能力。在第一种情况下,这可能转化为对其性能的不合理依赖,例如产生救援机器人能够拯救特定受害者的虚假希望,或将其部署于不适合的任务或不适当的条件下。在第二种情况下,当机器人的能力被低估时,它们可能会被未充分利用,从而导致宝贵资源的浪费(哈尔伯斯等人,2017)。
劳动力替代
卡尔森等人和哈尔贝斯及其同事均指出,利益相关者预测救援机器人可能会在体力要求高或高风险的救援任务中取代人类操作员。尽管卡尔森等人随后关注的是由此可能导致对男性救援人员的歧视问题(如上所述)(Carlsen et al., 2015),但哈尔贝斯及其同事则担忧用机器人取代人类可能导致与受害者接触、态势感知、操作能力等方面的性能下降,并指出机器人中介接触可能会影响医务人员进行分诊或提供医疗建议或支持的能力(Harbers et al., 2017)。
隐私
与隐私相关的问题在我们找到的三篇论文中得到了广泛探讨。根据哈伯斯及其同事的观点,机器人的使用通常会导致信息收集增加,这可能危及关于个人信息的谨慎处理。这可能包括有关救援人员的个人信息,例如其身心压力水平的图像或数据,也可能涉及受害者或生活在灾区、在灾区工作的人员的信息。哈伯斯等人指出,在灾难场景中部署机器人可能带来的隐私丧失并不必然构成伦理困境:事实上,鉴于搜救行动的紧迫性,在此类情境下收集信息所带来的益处远大于其可能造成的伤害。然而,这要求机器人所收集的信息不得向专业救援组织以外的任何人或机构共享,且仅限用于救援目的。鉴于救援行动具有时间紧迫、数据密集、高风险且常常混乱的条件特征,作者总结认为,确保对此类信息的谨慎处理将需要特别注意(哈尔伯斯等人,2017)。
坦齐及其同事在报告先前工作(Buescher 等人,2013)时强调,在危机或紧急情况下使用信息技术时需要监管,以澄清对情况或案例的误解(例如是否可以收集、处理并与利益相关者共享数据),并促进良好实践。作为例证,作者引用了 Buescher 等人,他们解释了在 2005年伦敦恐怖袭击期间,由于对 1998 年英国数据保护法要求的误解,应急机构在数据共享、合法性以及孤岛式思维方面的失败导致了效率低下和错误(Buescher 等人,2013;坦齐等人,2015)。
在导航规划中,布兰道及其同事指出,确保救援机器人导航的公平性需要收集受灾难影响人群某些特征分布的数据。这在现实中可能涉及数据收集本身或其分析过程中的隐私问题。此外,还可能导致因数据泄露而引发的信息泄露,也可能由于观察到的机器人行为中的关联而造成泄露,例如救援机器人所经过的路径可能揭示出机器人部署城市或其他地点人员的个人特征信息(Brandão et al., 2020)。
责任
坦齐等人认为,责任问题与技术故障或事故导致受害者受伤时的责任相关(坦齐等人,2015)。
哈伯斯及其同事则关注责任归属问题,他们认为这一问题既适用于道德责任,也适用于法律责任,其中道德责任涉及责备,而法律责任则涉及问责制。作者指出,当机器人在没有人类监督的情况下行动时,可能会出现此类问题。如果机器人发生故障、行为错误、犯错或造成伤害,那么对于所造成的损害,责任归属可能不明确:是操作员、软件开发者、制造商还是机器人本身的责任?他们进一步指出,当机器人具备一定程度的自主性、自我学习能力,或能够做出未被明确编程的决策时,责任归属问题将变得更加复杂(哈伯斯等人,2017)。
卡尔森及其同事指出,使用具备学习能力的机器人会在责任归属上引入“中间人”问题,解释称,从理论上讲,此类机器人的先前所有者以及设计者、生产者和用户都可能对其引发的问题承担责任(卡尔森等人,2015;Johansson,2010)。他们还指出,第一响应者及其他操作员可能会担心机器人在救援行动期间收集视觉数据,因为这可能意味着其他人员能够在任务过程中密切监视他们的行动。与当前情况相比,这将是一个巨大的变化,使得救援行动有可能以前所未有的方式进行评估(卡尔森等人,2015)。
安全
哈尔贝斯及其同事承认,尽管关注安全显然是部署救援机器人时需要考虑的关键优先事项之一,但这一优先事项往往必须与其他价值观相平衡,因为救援任务必然涉及安全风险。其中某些风险可以通过用机器人替代操作员来减轻,但机器人本身反过来也可能带来其他安全风险,主要是因为它们可能发生故障。即使机器人正常运行,仍可能造成伤害:例如,它们可能未能识别并撞到人类。此外,机器人还可能以更微妙的方式影响受害者的福祉。例如,作者认为,被困在倒塌的建筑物下,受伤且孤立无援时,突然面对一个机器人,尤其是在周围没有人类的情况下,这种经历本身就可能令人震惊(哈尔伯斯等人,2017)。
坦齐等人还特别强调了无人机使用过程中与碰撞和事故相关的风险,指出即使是高端军事无人机(如捕食者)也时有坠毁,尽管人员伤害较为罕见,但在城市环境中,小型无人机仍可能造成伤害或财产损失(坦齐等人,2015)。
阿米戈尼和夏丰纳蒂指出,尽管应尽可能地控制风险,但显然机器人不可能处于完全无风险的情况在搜救任务中运行的系统(阿米戈尼 & 夏丰纳蒂,2018)。
信任
关于自主系统中的信任问题是本综述所确定的一篇论文的重点。在该论文中,斯托蒙特强调,一个智能体对另一个智能体的信任需要两个信念:一是该智能体具备完成任务以帮助另一方实现目标的能力;二是其有执行该任务的意愿(斯托蒙特,2008)。随后他指出,文献中已确定信任的两个主要组成部分:信心与声誉。斯托蒙特认为,自主系统和机器人总体上往往不具备良好的声誉。尽管斯托蒙特无法为机器人声誉问题提供全面解释,但他提出信任的另一个组成部分——信心——必然涉及其中。作者认为,人类对自主机器人缺乏信心,是因为它们具有不可预测性。人类在协作时通常能够在各种情况下预判彼此的行为——尤其是在共同接受过训练的情况下,例如救援队伍。相反,自主系统常常连其设计者都感到意外,而这种不可预测性在灾难场景等危险情境中可能令人担忧且不受欢迎。
讨论
近年来,救援机器人的能力得到了显著提升。德尔梅里科及其同事在回顾救援机器人当前发展状况与未来前景时指出,无人机技术的发展为空中平台带来了新的应用,控制与驱动技术的进步使得足式机器人能够穿越复杂地形,而新型人机接口正在改善操作员与机器人交互的方式(Delmerico 等人,2019)。其中一些重要进展已应用于现场可用的商业产品中,使得救援机器人被广泛采用的可能性日益增加。然而,与这些机器人使用相关的伦理问题在文献中仍被严重忽视,这一点也通过我们开展的范围综述所识别出的极有限的研究文献得到了证实。在2008年之前没有相关出版物出现,而近5/6的研究集中在2014年至2020年之间,这表明关注度有所上升;但年度发表率仍然极低。考虑到近年来在机器人、自主系统和人工智能伦理方面已产生大量研究和指导准则(Winfield,2019;温菲尔德 & Jirotka,2018),这一发现 somewhat surprising。
定量分析:预测救援机器人的伦理影响
我们所确定的大多数论文通过设想潜在场景或开发可能发生的模拟来研究与救援机器人相关的伦理问题,以前瞻性方法应对不确定性。正如大卫·科林格里奇(David Collingridge,1980)提出的控制困境所示,预测新兴技术的影响历来十分困难,这一困境在技术评估学者的讨论中仍处于核心地位。该困境表述如下:
试图控制一项技术是困难的⋯⋯因为在技术发展的早期阶段,虽然可以进行控制,但对其有害的社会后果了解不足,无法证明有必要控制其发展;而等到这些后果显现时,控制已经变得代价高昂且缓慢。
自提出以来,旨在应对控制困境的方法主要集中降低技术发展早期阶段固有的不确定性,主张应以主动方式设计技术,以防止负面后果和风险,同时力求实现积极影响(van de Poel,2015)。这种方法体现在一系列为规范研究与创新中伦理实践过程而开发的方法中,例如建构性技术评估(Rip等,1995)、价值敏感设计(Friedman等,2006)以及负责任创新(Owen等,2013)。我们综述所识别的大多数论文确实都提到了这些方法中的一种或多种,表明人们意识到预见和主动方法即使不能完全解决控制困境,也可能是解决方案中有益的组成部分。阿米戈尼和夏丰纳蒂还讨论了将预见与探索性实验相结合的价值。他们认识到技术创新可能因表现出意料之外的行为而难以预测,因此该方法呼吁逐步将新兴技术引入社会,以便监测其影响,并对其设计进行迭代改进。为回答有关救援机器人应用的伦理问题,阿米戈尼和夏丰纳蒂提出,应将预见性方法与探索性实验相结合,以获取此类机器人在实际部署中的行为知识(阿米戈尼 & 夏丰纳蒂,2018)。
我们确定的研究中出现的另一个发现是实证研究的纳入,即在对新兴技术的伦理评估中,对利益相关者观点和价值观的探索。此类经验性探索通常以定性研究的形式进行,实际上是前述某些方法中的关键要素。例如,负责任创新倡导在整个研究与创新生命周期中让相关利益相关者参与(Von Schomberg,2013),强调对社会和文化情境的认知与敏感性。同样,价值敏感设计也包含使用社会科学的研究工具进行经验调查,以探讨新兴技术将在其中发挥作用的人类情境(Friedman 等,2006)。
定性分析:核心伦理主题
通过对文献进行定性文本分析,我们发现的核心伦理主题反映了机器人学伦理和灾难伦理相关广泛文献中讨论的若干问题。这或许可以解释为何与预期相反,我们发现这些主题与研究中的情境、机器人类型及所采用方法之间的相互作用有限(见表2)。
公平与歧视
与公平与歧视相关的伦理问题在大多数已确定的论文中都有讨论,尤其是布兰道及其同事的研究。许多灾难伦理学者认为,风险最高的个人应被优先救助(Merin 等人,2010;O’Mathuna 等人,2013)。这一观点基于分配正义中的优先主义伦理立场——正如布兰道及其同事所指出的——需求更大的人对资源拥有更强的道德主张。因此,在灾难场景中,老年受害者和儿童应优先于风险较低的受害者获得救助。布兰道及其同事的论文表明,机器人导航规划会对分配正义和间接歧视产生影响。事实上,导航规划的方式必然会影响某些人能否获得救援机器人存在或行动所带来的益处。这可能导致结构性不公,例如特定城市地区中与收入或年龄相关的隔离问题(Brandão 等人,2020)。布兰道等人提醒我们,从负责任创新视角开展的现有研究已指出,在考虑自主系统的应用时,利益相关者非常重视公平性问题(Webb 等人,2018)。
同样,公平性问题以及关于缺乏公平性的争议(Angwin 等人,20162017)占据了人工智能伦理公共讨论的很大一部分,而正如坦齐及其同事所强调的,缺乏包容性设计可能引发社会正义问题(Tanzi 等人,2015)。
错误或过度的期望和信任
哈伯斯及其同事(Harbers et al.,2017)讨论了错误或过度的期望这一问题,且该问题与信任问题密切相关(Stormont,2008)。
关于机器人失败与成功的流行报道,例如媒体、新闻来源、科幻文学和电影中的描述,常常误导公众对机器人是什么以及它们能做什么的期望。以无人机为例,在其被广泛商业化之前,媒体对无人机使用的某些特定方面的关注产生了错误的印象和观念,例如认为大多数无人机都是由少数国家拥有并用于军事目的的武装捕食者型无人机(Franke,2013)。
关于机器人的误解可能还源于这样一个事实:用于与人类互动的机器人通常会给人留下比其实际智能程度更高的印象(Kwon 等人,2016)。为了描述人类对复杂工程系统的能力产生错误或不切实际期望的现象,Kwon 及其同事提出了“期望差距”这一术语。他们指出,机器人被设计用于具备特定技能,而人类通常拥有广泛的能力。由于人类倾向于将类人物体(包括机器人)拟人化(Lemaignan 等人,2014),因此也倾向于将人类心智模型泛化到这些机器人身上(Dautenhahn,2002),并可能在最初阶段高估机器人的实际能力范围。人类将积极的人类特质错误归因于机器人的倾向可能导致错误的期望,并引发信任错位,这种错位随后可能迅速转变为失望,最终导致不信任。当这些因素干扰团队协作效率时,错误的期望和错置的信任可能会带来危险后果,尤其是在机器人支持安全关键型任务的情况下,例如搜救任务(Groom & Nass,2007)。这些因素为自主机器人所面临的声誉问题以及人类对其缺乏信心的现象提供了可能的解释(Stormont,2008)。
劳动力替代
卡尔森等人和哈尔贝斯及其同事认为,搜救工作最终可能会被救援机器人取代(Carlsen et al., 2015;Harbers et al., 2017)。这两篇论文均报告称,这一担忧是在与利益相关者的研讨会上提出的,特别是指消防员。目前一种观点认为,容易受到机器人化影响的职业通常是那些以重复性或可预测性任务为主的工作,而作为搜救操作人员重要组成部分的消防员,在此类脆弱性评估中得分较低(Owen, 2020)。然而,要确保救援机器人技术既具有创新性又带来积极效益,将需要清晰理解其社会影响,其中目标之一是优先发展能够补充而非取代救援人员的创新技术。
隐私
救援机器人的目标和能力意味着信息收集的增加,这可能导致恶意数据滥用的风险,或简单地导致救援操作人员、受害者或灾难现场其他利益相关者的隐私泄露,这些人的信息被有意或偶然地收集。正如哈伯斯及其同事所讨论的,这可能涉及有关身心压力水平的个人信息,或受害者身体的图像,或人们被毁家园的照片(哈尔贝斯等人,2017)。此外,正如布兰道及其同事指出的,数据泄露可能由安全漏洞引起,也可能通过观察到的机器人行为中的关联产生(布兰道等人,2020)。因此,尽管在紧急情况和灾难中增加信息流被广泛认为是合理的(桑菲利波等人,2019),但机器人之间的信息流引入了新的复杂性,并为侵犯隐私提供了更多机会。因此,隐私成为与救援机器人部署相关的关键人权问题,需要严格的监管和良好实践。
责任
关于责任问题,我们的综述中出现了两个值得关注的问题:第一是责任归属,第二是救援操作人员可能担心救援任务中机器人的存在会增加操作透明度,从而对其不利。关于责任归属问题,正如哈伯斯及其同事所指出的,当救援机器人具备一定程度的自主性、自我学习能力,或能够做出未被明确编程的决策时,这一问题可能会变得尤为复杂(Harbers et al., 2017)。
许多学者认为,人类应始终对机器人的行为负责(Coeckelbergh,2020)。事实上,大多数关注机器人学和人工智能伦理的全球倡议都指出,自主系统应当是可审计的,以确保设计者、制造商、所有者和操作员对其技术或系统的行为承担责任,并对可能造成的任何伤害负责(Bird et al., 2020)。另一种不同的观点则提出,可以考虑赋予机器人法律人格,作为一种机制,将目前仅适用于个人和公司等法人实体的义务直接适用于机器人(Fosch‐Vil‐ laronga, 2019)。因此,欧洲议会2017年的一项决议建议,可将“电子人”身份授予最先进的自主机器人。
然而,该提议遭到了一些学者的反对,他们认为赋予机器人权利和人格是“在道德上不必要且在法律上麻烦的”,因为难以让这些电子人承担问责制,其所带来的困难将超过这种法律虚构可能保护的任何道德利益(Bryson 等,2017)。总体而言,尽管人们普遍同意必须在面对新技术时维护问责制、责任和法治(欧洲科学与新技术伦理小组,2018),但当涉及自主性不断增强的机器人时,应如何实现这一点以及如何分配责任仍有待明确(Muller,2020)。有建议指出,一个可行的方向可能是收集更多定性和定量数据,以更好地理解与机器人部署相关的潜在伤害发生的可能性,并判断此类伤害是否足以证明实施特定措施的合理性(Fosch‐Villaronga,2019)。
接下来探讨机器人收集的数据可能揭示出的关于救援行动的信息,以及救援人员可能因此产生的相关顾虑。在许多法律体系中,无论是专业还是志愿者救援人员,只要他们在行动中合理且出于善意地履行职责,便可免于承担责。基于上述情况,有必要进一步了解可能与救援机器人共同参与任务的响应人员的观点,以更好地理解他们对机器人在任务期间所收集信息的顾虑,以及这些信息的共享可能对他们产生的潜在影响,例如对其专业性及社会角色的感知与自我认知方面的影响。
安全
我们综述中所收录论文的作者对安全问题的描述主要集中在技术故障或故障风险上,这些故障可能导致在作业区域部署的救援机器人与地面人员(包括响应人员和受害者)之间发生碰撞和伤害。然而,哈伯斯及其同事也指出,机器人可能以不同方式影响受害者的福祉,他们提到,例如,被困在倒塌建筑物下、受伤且恐惧的受害者突然面对一个机器人,可能会感到极度恐惧(Harbers et al., 2017)。这一观点与范温斯伯格和科梅斯在其关于人道主义无人机伦理考量的最新论文中提出的关切相呼应(van Wynsberghe & Comes,2020),他们强调了与人们在接触机器人时的行为、心理和生理健康相关的安全问题。
结论
综合来看,本次范围综述的定量和定性研究结果表明,尽管文献中对救援机器人技术中的伦理问题关注不足,但我们识别出的论文均一致支持采取主动应对方法来处理此类伦理问题,并体现出一种共识:即在救援机器人广泛应用于灾难场景之前,必须将伦理考量纳入考虑范围。
除了对本文所包含的文献提出的问题进行更深入的分析外,未来研究还应考虑其他可能具有影响力的伦理考量。范温斯伯格和科梅斯最近关于人道主义无人机使用相关伦理问题的研究结果表明,尊严、技能退化和信息透明度值得关注(van Wynsberghe & Comes, 2020)。此外,还需要开展更多定性工作,以探讨搜救机器人领域专家和专业人员的观点,从而从假设情景和模拟转向对不同情境下不同类型机器人实际经历的理解。将救援机器人技术伦理领域的规范性与实证研究结果相结合,有助于明确救援人员在灾难场景中部署机器人时面临的各种问题,同时推动实用决策工具以及基于实证的部署指南的开发(Ienca et al., 2018)。
本研究的结果应结合某些局限性加以考虑。首先,在我们完成综述与本研究发表之间,学术文献中可能已发布了新的记录。其次,由于我们仅选择了以英语发表的论文,因此可能遗漏了以其他语言报告的数据、分析和反思。最后,我们未纳入灰色文献,因此不能排除在我们识别的出版物之外还存在相关的网站、报告、论文及其他文件。尽管存在这些局限性,但通过提供关于灾难中使用机器人所涉伦理问题的现有文献的全面概览,本范围综述为进一步的探索、分析和反思提供了有益的起点。
1035

被折叠的 条评论
为什么被折叠?



