自动化出行中的有意义人类控制:法律与治理视角
1. 人类控制的法律途径
长期以来,法律一直在关注人类与技术设备交互时的职责。在交通领域,自20世纪初起,国际公约和国家法律就开始考虑相关主题及责任问题。近年来,立法者开始关注高度自动化系统甚至人工智能(AI)系统相关问题。
法律和法规通常假定或规定人类操作员应始终控制或至少监督高度自动化/AI系统的行为。例如,《通用数据保护条例》(GDPR)要求在对个人的自动化决策中原则上要有人类干预;拟议的欧盟《人工智能法案》(AI Act)要求对所有高风险系统进行人类监督。
在交通领域,航空和汽车行业也遵循类似原则。《国际民用航空公约》确立了机长的最终权威和责任;国际道路交通公约规定每辆车必须有最终负责的人类驾驶员。
然而,确保负责任的人类控制是否始终可行和现实,以及人类控制是否总是有助于促进不同背景和领域中的相关价值(如人权、安全、安保、问责制等),引发了广泛讨论。
为确保自主系统有效处于人类控制之下,理论上有两个基本先决条件:
- “跟踪”条件 :系统应能够承认并响应其人类设计者和操作员的道德理由,以及其运行环境的相关事实方面。
- “追溯”条件 :系统的设计应允许将其行动结果持续追溯到参与其设计和操作的至少一个人类主体。
2. 交通法中的人类控制
当今的主要生产、行政和社会组织可视为复杂的社会技术系统(STSs),它结合了技术人工制品、社会人工制品和人类。技术人工制品决定了组织中可以做什么,而社会人工制品(如规范和制度)决定了应该做什么,但这些规范需要人类来理解
超级会员免费看
订阅专栏 解锁全文
29

被折叠的 条评论
为什么被折叠?



