从国际法中的“人类控制”到欧盟人工智能新法案中的“人类监督”
1. 引言
“监督”(oversight)一词通常有两种含义:一是监督某事的行为;二是做事时的无意失误。欧盟人工智能法案第14条将“监督”作为人类操作员与人工智能关系的规范标准,但这可能无法真正引导人类对人工智能进行适当监督。实际上,第14条可能更符合“监督”的第二种含义,因为在复杂的人机交互中,人类往往无法对人工智能进行适当监督,有意义的人类监督或许难以实现。
2. 两种叙事背景
欧盟人工智能法案第14条关于“人类监督”的规定,需从两种不同叙事背景来理解:
- 自主武器系统(AWS)的讨论 :主要围绕特定形式的实体系统(武器)使用动能的问题,在特定常规武器公约(CCW)下的政府专家组(GGE)中展开。虽然对AWS的控制概念备受关注,但尚未形成国际公认的AWS定义和“有意义的人类控制”的确切概念,仅产生了11项关于致命自主武器系统的指导原则,且这些原则不具法律约束力,关键要点模糊。国际上对AWS的讨论主要集中在三个方面:
- 法律合规性 :确保AWS的使用不违反国际人道法的核心原则。
- 责任缺口 :当人类不再对使用致命武力或其他涉及权利的行动做出最终决定时可能出现的问题。
- 尊重人类尊严 :要求道德主体做出可能侵犯人权的决策。
- 人工智能伦理的讨论 :在多个领域展开,包括学术界、民间社会、私人公司以及欧盟、欧洲委员会和经合组织等区域机构。这些讨论最初由伦理考量驱动,产生了许
超级会员免费看
订阅专栏 解锁全文
2178

被折叠的 条评论
为什么被折叠?



