人工智能法案:监管与合规评估解读
1. 多国监管合作机制
在涉及两个或更多成员国的情况下,为促进人工智能法案在整个欧盟的统一实施,各国监管机构将相互合作,并在相关情况下与人工智能委员会合作。具体而言,牵头的国家监管机构将与其他国家监管机构合作,毫不拖延地交流所有相关信息,以达成共识。例如,牵头机构应将其决策草案提交给其他国家监管机构,以充分考虑它们的意见。
若两个或更多国家监管机构之间存在严重分歧,例如,有人声称牵头机构未行使其调查、纠正或授权权力(“消极”权力),或者牵头机构得出的结论与人工智能法案的规定不符,相关国家监管机构通知人工智能委员会后,委员会将考虑所有相关信息,并自行处理该案件,在收到通知后的3个月内,向国家监管机构发布建议。
2. 事前合规评估
高风险人工智能系统的供应商应确保其系统在投放市场或投入使用之前,按照拟议的人工智能法案第43条所述,进行相关的合规评估程序。若事前合规评估的结论是高风险人工智能系统符合拟议人工智能法案第8 - 15条规定的要求,供应商应为相关人工智能系统起草一份书面的欧盟合规声明,并贴上CE合规标志。
一般来说,高风险人工智能系统的合规评估将由供应商自行负责进行(即基于内部控制的合规评估程序),唯一的例外是用于远程生物特征识别人员的人工智能系统,如果这些系统未被禁止,可能需要有通知机构参与合规评估。
委员会关于合规评估问题的提案包括适用于高风险人工智能系统的程序,有两个评估级别:
- 如果高风险人工智能系统已受产品安全规则监管,则适用简化的合规评估制度,作为现有制度的延伸。
- 对于其他高风险人工智能系统(如附件III中列出的系统),适用新的合规和执法制度
超级会员免费看
订阅专栏 解锁全文
2178

被折叠的 条评论
为什么被折叠?



