高风险人工智能系统提供商的义务与合规评估
在人工智能技术飞速发展的当下,高风险人工智能系统的监管与合规问题愈发重要。本文将深入探讨高风险人工智能系统提供商的各项义务,以及与之相关的合规评估程序。
1. 建立质量管理体系的义务
高风险人工智能系统提供商有责任建立质量管理体系,以确保其系统符合相关法规要求。该体系的实施应与提供商的组织规模相适应,并且需要以书面政策、程序和指令的形式进行记录。它应贯穿高风险人工智能系统的整个生命周期,定期进行系统更新,至少涵盖以下方面:
- 合规策略,包括符合评估程序。
- 用于设计、开发、质量控制和保证的技术、程序和系统行动。
- 开发前后的检查、测试和验证程序。
- 适用的技术规范和标准。
- 数据管理和风险管理系统。
- 建立、实施和维护售后监测系统。
- 向国家市场监管当局报告严重事件或故障的程序。
- 与国家主管部门沟通,提供训练、验证和测试数据集的访问权限。
- 记录所有相关技术文档和信息的系统和程序,以及资源管理。
- 明确管理层在质量体系各方面责任的问责框架。
对于受特定指令监管的信贷机构提供商,在符合相关内部治理规则的情况下,可视为履行了建立质量管理体系的义务(部分系统和程序除外)。
2. 编制技术文档/文档保存的义务
提供商需要编制适当的技术文档,以便验证高风险人工智能系统是否符合法规要求,并允许国家主管部门进行评估。技术文档应在系统投放市场或投入使用前编制完成,并保持更新。它应包括系统的一般描述、开发过程、特性、算法、数据、训练和测试过程等详细信息,以及相关的风险管理系统文档。
超级会员免费看
订阅专栏 解锁全文
1472

被折叠的 条评论
为什么被折叠?



