欧盟人工智能监管:基于风险的比例方法与禁止实践
1. 可信赖人工智能的概念
欧盟高级专家组对“可信赖人工智能”的定义产生了重大影响。“可信赖人工智能”由三个关键要素构成,且需在系统的整个生命周期内得以实现:
- 合法性 :需遵守所有适用的法律法规。
- 道德性 :确保遵循道德原则和价值观。由于法律未必能跟上技术发展的步伐,有时甚至可能与道德规范脱节,因此人工智能系统还应具备道德性,以确保与道德价值和规范保持一致。
- 稳健性 :从技术和社会层面来看都应如此。即便确保了道德目的,社会也必须确信人工智能系统能安全、可靠地运行,并采取了特定的保障措施以防止任何意外的伤害。
这三个要素相互配合、相互重叠且相互补充,每个要素都是实现可信赖人工智能的必要但不充分条件。
2. 欧盟委员会的初步评估与政策选项
2020年7月23日,欧盟委员会发起了一项关于“欧洲议会和理事会制定人工智能要求的法律提案”的初始影响评估(IIA),旨在明确监管目标和各种政策选项。该评估遵循“逐步干预逻辑”,涵盖从不制定立法(即欧盟层面无政策变化,选项0)到全面的欧盟层面立法等多种情况。
欧盟委员会考虑的五种不同程度监管干预的政策选项如下:
| 选项 | 描述 |
| ---- | ---- |
| 选项1 | 设立自愿标签计划的欧盟立法工具 |
| 选项2 | 部门性的“临时”方法 |
| 选项3 | 遵循基于比例风险方法的横向欧盟立法工具 |
| 选项3+ | 遵循基于比
超级会员免费看
订阅专栏 解锁全文
33

被折叠的 条评论
为什么被折叠?



