欧盟高风险人工智能系统的报告义务与相关规定解读
1. 高风险人工智能系统的信息报告义务
当高风险人工智能系统出现与人员健康安全或基本权利保护相关的已知风险时,系统提供者需立即履行一系列报告义务:
- 通知国家主管当局和认证机构:向系统投放市场所在成员国的国家主管当局以及为该高风险人工智能系统颁发证书的公告机构,告知系统的违规情况以及已采取的纠正措施。
- 通知用户:根据欧洲议会联合报告草案,提供者还需通知高风险人工智能系统的用户。
- 报告严重事件或故障:对于系统发生的严重事件或故障(与违反欧盟保护基本权利义务相关),提供者必须立即向事件或违规发生地成员国的市场监管当局报告。报告需在提供者确定人工智能系统与事件或故障之间存在因果关系或有合理可能性存在这种关系后立即进行,且无论如何不得晚于提供者知晓严重事件或故障后的15天。不过,富士通认为,由于软件分发广泛,按照当前报告标准在15天内向所有成员国报告不切实际,请求将截止日期延长至更合理的时间。
市场监管当局在收到报告后,需通知监督或执行欧盟法律中与高风险人工智能系统使用相关的基本权利保护义务的国家公共当局或机构。
2. 行业对“严重事件”定义的看法
行业代表认为,“严重事件”的定义过于宽泛,涵盖了任何“直接或间接导致、可能导致或可能已经导致”某些不良事件的情况。这一定义存在以下问题:
- 定义模糊:导致企业在判断和遵守相关规定时面临困难,增加了合规负担。
- 主观决策:提供者需要对事件的严重程度、系统是否故障以及是否违反基本权利保护法律做出主观判断,这可能导致市场和法律的不确定性,以及对不构成严重实质性危害的事件进行过度报告,从而增加人工智能提供者和市场监管
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



