欧盟人工智能法案中的标准、义务与角色分配探讨
1. 合规推定相关要求
在人工智能领域,对于高风险人工智能系统的合规推定有相关规定。根据拟议的人工智能法案第 10(4) 条,训练、验证和测试数据集应根据其预期用途,考虑高风险人工智能系统预期使用的特定地理、行为或功能环境的特征。若高风险人工智能系统在反映其预期使用的特定地理、行为或功能环境的数据上进行了训练和测试,则可推定其符合第 10(4) 条规定的相应要求。
在网络安全方面,若高风险人工智能系统已获得认证,或根据《网络安全法》在网络安全计划下发布了合格声明,且其相关信息已在《欧盟官方公报》上公布,则可推定其符合该法案第 15 条规定的网络安全要求。
以下是相关规定的简单梳理表格:
| 要求类型 | 合规推定条件 |
| ---- | ---- |
| 特定环境要求 | 在反映预期使用的特定地理、行为或功能环境的数据上训练和测试 |
| 网络安全要求 | 获得认证或发布合格声明且信息公布于《欧盟官方公报》 |
2. 人工智能生态系统中义务平衡的复杂性
许多企业和商业协会指出,拟议的人工智能法案对“提供者”的定义过于宽泛,这可能给参与人工智能开发生态系统的各类实体带来无差别的负担。该定义似乎假设所有人工智能系统都是作为独立产品或服务开发后投放市场,但实际人工智能生态系统非常多样化,开发和部署方式众多,涉及多个利益相关者,很少有单一实体独立开发人工智能系统。
同时,法案对人工智能系统的提供者和使用者规定了不同义务,但在实践中,往往难以明确谁是提供者和使用者。宽泛的“人工智能系统”和“提供者”定义,也使得难以确定哪些人工智能系统和实体
超级会员免费看
订阅专栏 解锁全文
34

被折叠的 条评论
为什么被折叠?



