欧洲议会2020年决议:高风险人工智能及相关技术的监管原则
1. 高风险技术范围界定
高风险人工智能、机器人技术及相关技术的监管规则具有特定的适用范围。这些规则仅适用于那些被认为具有高风险的技术。判断一项技术是否属于高风险,需要综合考虑其开发、部署和使用的领域、具体用途或目的,以及可能造成的伤害或损害的严重程度。
严重的伤害或损害包括侵犯儿童、消费者或工人的权利等情况,这些情况由于其影响范围、受影响人数或对整个社会的影响,可能会违反欧盟法律规定的基本权利和安全规则。以下是一些高风险的行业和用途示例:
|高风险行业|高风险用途|
| ---- | ---- |
|就业|招聘|
|教育|学生评分与评估|
|医疗保健|医疗治疗和程序|
|交通|自动驾驶、交通管理|
|能源|能源生产与分配|
|公共部门(庇护、移民、边境管制、司法和社会保障服务)|公共资金分配、公共部门决策(对自然人或法人的权利和义务有重大直接影响)|
|国防和安全|自主军事系统|
|金融、银行、保险|贷款发放、交易、经纪、税收等|
2. 以人为本、人为制造和人为控制的人工智能原则
任何高风险的人工智能技术,包括此类技术使用或产生的软件、算法和数据,在开发、部署和使用时,必须保证在任何时候都有充分的人为监督,并且在需要时能够重新获得完全的人为控制。具体来说:
- 全程人为监督 :人工智能系统在运行过程中,人类应始终能够对其进行监督,了解系统的运行状态和决策过程。
- 可恢复人为控制 :当出现违反欧盟法律、道德原则和法
高风险AI监管原则解析
超级会员免费看
订阅专栏 解锁全文


被折叠的 条评论
为什么被折叠?



