欧盟人工智能法案的主体、范围及相关规定解读
1. 法案概述
欧盟委员会提出的人工智能法案(AI Act)计划于2023年5月进行相关安排,欧洲议会全体会议预计在2023年6月对其最终版本文本进行投票。该法案采取了广泛的监管范围,涵盖了人工智能系统(AI系统)开发、销售和使用生命周期的各个方面。
2. 法案主要内容
2.1 不同风险等级的规定
根据AI系统或实践所固有的风险,法案规定了以下内容:
- 禁止某些AI实践 :针对不可接受风险或最高风险等级的AI实践。
- 高风险AI系统的特定要求和义务 :对高风险AI系统及其运营商设定了具体要求和义务。
- 特定AI系统的透明规则 :针对那些不属于“高风险”且未用于禁止实践的AI系统,制定了统一的透明规则。
此外,法案还规定了市场监测、市场监督、治理以及支持创新的措施。
2.2 适用对象
法案适用于参与相关活动的各类主体,包括提供者、用户、经销商、进口商或转售商等。具体如下:
- 提供者 :无论其是否实际位于欧盟内或第三国,只要在欧盟市场上投放或投入使用AI系统,都需遵守法案规则。
- 用户 :位于欧盟内的AI系统用户需遵守法案。
- 第三国的提供者和用户 :若其AI系统的输出在欧盟内使用,法案也将适用。
- 其他主体
超级会员免费看
订阅专栏 解锁全文
2178

被折叠的 条评论
为什么被折叠?



