31、AI应用中的法律责任与注意标准探讨

AI应用中的法律责任与注意标准探讨

1. AI引发的关注焦点

在当前的讨论中,人们对AI的关注重点并非经济损失,而是基本权利的侵犯以及AI优势的潜在过度使用。这在一定程度上是合理的,因为这些领域目前具有典型性,且初步显示出AI可能存在危险。不过,未来这种关注焦点可能会发生变化。

2. 因果关系难题

在AI法律领域,确定行为与损害之间的因果关系是一个尤为重要的问题。由于AI系统的不透明性和不可解释性,这一问题在早期就被提出。人们常将计算机与人类思维进行类比,因此在这方面遇到的困难常与医学科学,特别是神经科学中的问题相比较。AI系统常被视为“黑匣子”,但这种观点存在疑问。

欧洲议会2020年的决议解释说,某些AI系统给现有责任框架带来了重大法律挑战,其不透明性可能导致难以确定谁控制了与AI系统相关的风险,以及哪些代码、输入或数据最终导致了有害操作。这使得确定损害与致害行为之间的联系变得更加困难,受害者可能无法获得足够的赔偿。

许多欧洲报告和文件都要求促进和实现AI的透明度。例如,2021年的提案指出,为解决某些AI系统对自然人来说难以理解或过于复杂的不透明性问题,高风险AI系统应具备一定程度的透明度,用户应能够解释系统输出并适当使用。

然而,实现透明度或可解释性在实践中可能很困难,原因包括技术(系统的复杂性)、法律(AI操作中涉及的机密信息)、经济(确保可解释性的费用)和认知(需要高性能AI专家来感知和理解AI的操作)等方面。因此,需要一些特殊的补救措施来使因果关系概念可行。

专家小组在2019年的报告中提出了一些建议:
- 生产者有责任为技术配备记录技术操作信息的手段(设计日志),前提是这些信息对于确定技术风险是否实现通常是必不可少的,并且记录是适当和相称的。
- 记录必须符合适用法律,特别是数据保护法和保护商业秘密的规则。
- 缺少记录信息或未能让受害者合理获取信息应引发可反驳的推定,即缺失信息应证明的责任条件已得到满足。
- 如果由于上述推定,运营商有义务赔偿损害,运营商应有权向未能为技术配备记录设施的生产者追偿。
- 当损害属于安全规则旨在避免的类型时,不遵守此类安全规则(包括网络安全规则)应导致举证责任的倒置,包括因果关系、过错和缺陷的存在。
- 在平衡以下因素后,证明因果关系的负担可以减轻:
- 技术至少对损害有贡献的可能性。
- 损害是由技术或同一范围内的其他原因造成的可能性。
- 技术中已知缺陷的风险,即使其实际因果影响不明显。
- 技术中可能导致损害的过程的事后可追溯性和可理解性程度(信息不对称)。
- 技术收集和生成的数据的事后可访问性和可理解性程度。
- 潜在和实际造成的损害的种类和程度。

如果有多个可能的原因,且不清楚究竟是什么触发了损害,但如果所有可归因于一方(如运营商)的可能原因的可能性总和超过一定阈值(如50%或更多),这也可能导致该方承担反驳初步印象的举证责任。

除了技术措施,该提案还包括一些严格的法律方法来处理不可解释性问题,如举证责任的倒置、降低证明标准或两者兼而有之。这种偏离通常是由于技术使用者和受害者之间的信息不对称所导致的,类似方法在一些法律体系中处理揭示和证明因果关系问题时已经被采用,例如医疗事故纠纷。

2020年的决议和2021年的提案以类似形式提出了这些措施,主要涉及高风险AI系统。2020年决议的第62.1条要求高风险系统的提供者进行自我披露,即向发生事件或违规行为的成员国市场监管当局报告任何严重事件或系统故障,这些事件或故障构成违反旨在保护基本权利的欧盟法律义务。提供者应在确定AI系统与事件或故障之间的因果关系或合理可能性后立即进行通知,无论如何,不得晚于意识到严重事件或故障后的15天。

Wojtczak和Księżak在2021年提出了各种解决方案。一种是使用政府证书或登记系统,确认给定AI的安全等级或类别,这将与证明因果关系的程序工具相互关联。另一种可能是改变所谓法律程序中的社会参与规则,将因果关系的决定权委托给由宣誓专家组成的特别陪审团,而不是传统的由非专业人士组成的陪审团。因为在涉及AI的“不可解释”案件中,让非专业人士决定因果关系可能会导致任意性,而由能够理解AI的专家来审查相关事实更能保证公平性。

下面是一个简单的mermaid流程图,展示了确定AI损害因果关系的大致流程:

graph LR
    A[发生AI损害事件] --> B{是否有记录信息}
    B -- 有 --> C{信息是否可获取给受害者}
    C -- 是 --> D{能否确定因果关系}
    D -- 能 --> E[确定责任方]
    D -- 不能 --> F[考虑平衡因素减轻举证责任]
    C -- 否 --> G[触发可反驳推定]
    B -- 否 --> G
    G --> H[运营商可能先赔偿]
    H --> I[运营商向生产者追偿]
3. 注意标准:AI与人类的差异

2020年决议附件B中的提案涉及对AI系统操作员应有的注意义务。这种注意义务应与AI系统的性质、可能受影响的受法律保护的权利、AI系统可能造成的潜在损害以及这种损害的可能性相称。

与以前的技术和人类工艺相比,AI的广泛应用导致人们对其结果的期望提高。在许多领域,如玩围棋、互联网信息搜索、驾驶汽车或分析X光片,AI的表现优于人类,包括安全性、精度、数量和生产力等方面。当然,并非所有领域和所有AI系统都是如此,例如文学文本翻译。

以医疗诊断为例,如今一些疾病,如肺炎、乳腺癌和皮肤癌,AI的诊断效果比经验丰富的医生更有效。这引发了两个问题:医生或医疗机构使用或不使用可用AI系统的责任是什么,以及对医生的期望标准如何影响其责任?

如果因为医院缺乏资金或资源而没有特定的机器人(或AI)导致损害,情况类似于没有昂贵的药物或设备。但如果有使用特定AI系统的可能性,而医疗机构或医生拒绝使用或故意阻止患者使用,且这对患者健康产生了负面影响,这种行为应被视为诊断或治疗中的过失,医疗机构或医生可能要承担责任,包括侵权责任和合同责任。

一旦某些AI工具被允许使用,特别是那些在诊断方面能力超过人类且价格不高的工具,其使用将成为标准,缺乏此类技术支持原则上意味着医疗失误。医生有义务使用能提供更好诊断或治疗效果的工具。

医疗机器人和医学领域的AI可被视为医疗器械,需要符合详细的设计、认证、标签和注册要求,并监控其性能。使用AI和机器人需要官方批准,认证过程复杂,类似于测试新药。一般来说,AI应提供不低于医生的标准,但在某些特殊情况下可能有例外。

由于心理障碍,实际中可能只允许使用那些明显优于人类专业人员的AI。当AI的安全水平默认高于医生时,对特定程序的安全(或无过失)期望会增加,这将导致在提高效率和安全性的情况下,消除人为因素的压力增大。

然而,人类对AI工作结果的监督可能基于非理性和外在因素。因为让效果较差、更容易出错的人类控制经过认证具有更高效率的AI是不合理的。因此,对AI系统的监督应侧重于其进入市场的过程,之后由AI控制人类决策可能更合理。

这也引发了一些问题:
- 是否可以因一个人在有可用AI技术的情况下不使用而将过错归咎于他?
- 如果AI系统经过适当认证并随后被使用,正确使用AI是否应被视为免除罪责的情况?
- 是否可以容忍AI和人类同时以不同的注意标准行动的情况?

下面是一个表格,对比了AI和人类在医疗诊断中的表现和责任情况:
| 对比项 | AI | 人类医生 |
| ---- | ---- | ---- |
| 诊断效果 | 某些疾病诊断更有效 | 部分疾病诊断效果不如AI |
| 注意标准 | 通常更高 | 传统标准,但可能因AI提高 |
| 责任情况 | 认证后使用一般无过错 | 不使用可用AI可能担责 |

综上所述,AI的引入永久性地改变了注意标准和对决策质量的合理期望。即使当前规范在声明上假定人类意志及其对机器的自主性至上,但实际上在各个领域中,决策权将逐渐转移到机器手中。未来,随着AI的发展,这些法律和伦理问题需要进一步探讨和解决。

AI应用中的法律责任与注意标准探讨

4. 人类对AI决策的应对困境

AI的发展使决策中心从人类向机器转移,这与以往发明不同。以往发明如斧头、电话等虽改变了使用环境,但最终决策仍由人类掌控。而AI在医学、森林管理等领域会直接做出决策,人类面临是否“服从”这些决策的难题。

欧洲议会2019年的决议指出,现有医疗设备审批系统可能不适用于AI技术,需明确用户(医生/专业人员)、技术解决方案生产者和提供治疗的医疗机构的各自责任。医生可能因拒绝AI建议而面临损害赔偿责任,被迫采用特定诊断或治疗方案。

Hacker等人认为,即使平均表现优于人类判断的AI模型也会产生假阴性和假阳性建议,医生不应仅仅成为机器学习判断的执行者。若有充分专业理由认为模型错误,可推翻其决策且不应承担责任。

但这一观点面临现实挑战。若医生不遵循AI建议,除了少数反AI者,很少有人愿意使用其服务。而且,这一问题反映了更广泛的现象:各种AI系统的决策会在不同程度上约束人类。即使理论上人类不受约束,但违背AI决策会带来个人风险,同时牺牲自动化带来的速度和便利。

是否应给予人类在违背AI决策时的责任豁免是一个难题。若法律规范仍假定人类起决定性作用,那么人类也应承担相应责任,但实际上可能无人愿意承担。例如在自主金融控制系统中,让行政官员为系统决策负责并不合理。

下面是一个列表,总结了人类应对AI决策时面临的困境:
- 违背AI决策可能面临责任风险。
- 遵循AI决策可能牺牲自主决策心理需求。
- 法律规范与实际责任承担存在矛盾。

5. 人类监督AI的现实困境与发展趋势

法律要求在医学领域对AI操作进行人类监督,这被视为构建AI规则的基石之一。然而,随着AI能力与人类差距的扩大,这一要求将变得不切实际。所谓的“人类控制”或“人类监督”将演变为确保人类操作员正确遵循AI操作程序,而非真正对AI进行监控。

即使人类认为AI的决策(如治疗、诊断决策)有误,也不能轻易认定是AI系统的问题,因为更可能是人类判断错误。这一冲突因AI的“黑匣子”或可解释性问题而更加复杂,难以验证AI决策的正确性。

可以将上述关于人类监督AI的情况推广到其他领域。AI的引入会提高在特定情况下期望决策(选择)的标准,人类将难以达到这一标准。由此产生以下问题:
1. 能否将不使用AI的过错归咎于个人?
2. 正确使用经过认证的AI是否应免除用户责任?
3. 能否容忍AI和人类以不同注意标准同时行动?

下面的mermaid流程图展示了人类监督AI决策的困境:

graph LR
    A[AI做出决策] --> B{人类是否认同决策}
    B -- 是 --> C[遵循AI决策]
    B -- 否 --> D{能否证明AI错误}
    D -- 能 --> E[推翻AI决策]
    D -- 不能 --> F[面临决策困境]
    F --> G[可能承担责任风险]
6. AI决策引发的宪法权利思考

当决策涉及他人利益或权利时,利益相关者(如患者、嫌疑人)是否有权限制人类决策者的自主性,而遵循AI的专家意见,这是一个值得探讨的问题。

例如,患者是否有宪法权利要求严格按照AI的指示接受治疗;刑事审判中的嫌疑人是否有权根据AI系统的意见被宣告无罪;公民群体是否有政治权利要求其代表(议员或政府)的决策与AI的专家意见一致。

AI可应用于多个领域,如选举法和选区组织、税收负担和社会转移支付标准制定、社区数据传播、环境保护和医疗资源分配等。赋予相关宪法权利或保障有助于消除公共当局基于谎言和错误信息治理社会的危险现象。

F. von Schirach提议在《欧洲联盟基本权利宪章》中增加六项新的基本权利,其中两项直接涉及AI(数字自决权和人工智能相关权利),另一项关于“真相”的权利对AI发展有重要影响。

总体而言,AI的引入永久性地改变了注意标准和对决策质量的合理预期。尽管当前法律规范仍强调人类的主导地位,但实际上决策权逐渐向机器转移。未来,需要解决人类与AI在决策、责任承担和监督等方面的矛盾,以实现更加公平、合理的发展。

下面是一个表格,总结了AI在不同领域应用可能引发的宪法权利问题:
| 应用领域 | 可能引发的宪法权利问题 |
| ---- | ---- |
| 医疗领域 | 患者接受AI治疗的权利 |
| 刑事审判 | 嫌疑人依据AI意见被宣告无罪的权利 |
| 政治决策 | 公民要求代表决策与AI一致的权利 |

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值