欧盟人工智能监管与发展的新动态
1. 欧洲议会 2020 年决议中的监管框架
1.1 监管机构与协调
每个欧盟成员国应指定一个独立的公共机构,负责监督拟议法规的实施,并进行风险和合规评估以及认证工作。这些国家监管机构将相互合作,同时也会与欧盟委员会协作。它们的职责包括监督相关国家、欧洲和国际治理规则及标准的应用,并且在出现因人工智能、机器人及相关技术的开发、部署或使用而导致的疑似违反道德原则和法律义务(如歧视性待遇或侵犯其他权利)的情况时,作为首要联系点。
1.2 欧盟层面的协调
欧盟层面的协调工作应由欧盟委员会和/或为此目的指定的相关欧盟机构、团体、办事处和机构来确保,以保证拟议法规的一致应用。欧盟委员会的具体职责如下:
1. 确保对人工智能进行一致的风险评估。
2. 关注国家监管机构对高风险人工智能、机器人及相关技术进行的合规评估和后续监测。
3. 制定国家监管机构颁发证书的申请流程。
4. 准备国家监管机构使用的具有约束力的方法指南。
5. 协调国家监管机构建立相关治理标准,包括为开发者、部署者和用户提供关于合规方法的非约束性实施指南。
6. 与国家监管机构合作。
7. 作为专业知识中心,促进人工智能信息的交流。
8. 设立一个安全与国防工作组,专门研究人工智能在这些领域的道德使用相关的战略和投资问题。
1.3 监管框架的必要性
原有的保护基本权利、确保安全和消费者权利(包括数据保护和非歧视法律)的立法,似乎不足以应对人工智能技术带来的风险。因此,欧盟委员会和欧洲议会转向立法途径,呼吁采用新的人工智能法律/监管框架。他们受人
超级会员免费看
订阅专栏 解锁全文
30

被折叠的 条评论
为什么被折叠?



