人工智能系统市场监管与风险应对机制解析
1. 相关数据保密义务
公共当局或机构在执行任务和调查过程中获取的信息,应按照拟议的《人工智能法案》第 70 条规定的保密义务进行处理。
2. 国家层面风险 AI 系统处理程序
- 风险定义 :呈现风险的 AI 系统被视为符合(欧盟)2019/1020 号条例所定义的有风险产品。其中,“风险”指危害发生导致损害的概率与损害严重程度的组合;“有风险的产品”指可能对人员健康安全、工作场所健康安全、消费者保护、环境、公共安全和其他公共利益产生不利影响,且超出合理可接受程度的产品;“有严重风险的产品”指基于风险评估,危害发生概率与损害严重程度的组合需要市场监管当局迅速干预的产品。
- 评估与通知 :若国家市场监管当局有充分理由认为受检 AI 系统对人员健康安全或基本权利保护构成风险,应评估其是否符合拟议 AI 法案的所有要求和义务。尤其在发现对基本权利保护存在风险时,市场监管当局必须立即通知并与监督欧盟基本权利适用的国家公共当局或机构充分合作。相关运营商需与市场监管当局及其他国家公共当局和机构合作。
- 非合规处理 :
- 要求整改 :若评估发现 AI 系统不符合法案要求,市场监管当局应通知相关公告机构,并要求运营商在合理期限内采取适当且成比例的纠正措施,如将 AI 系统从市场撤回或召回。此类命令应说明依据,并及时传达给运营商,同时告知其可用的补救措施及时间限制。
- 跨区域通
超级会员免费看
订阅专栏 解锁全文
66

被折叠的 条评论
为什么被折叠?



