欧洲人工智能法案:高风险AI系统的记录与日志要求
1. 技术文档相关建议与处理
最初有建议提出,技术文档应尽可能相关,且不损害知识产权或商业机密,并应编制“适当的”技术文档,涵盖附件四中的所有信息。然而,欧洲议会相关委员会的联合报告草案删除了“单一”或“适当”技术文档的建议。
2. 可追溯性与记录要求的重要性
2.1 伦理准则的要求
根据高级专家组(HLEG)的《可信人工智能伦理准则》,确保人工智能系统的可追溯性至关重要。可追溯性指的是能够跟踪系统的数据、开发和部署过程,通常通过记录识别来实现。这包括记录数据集、系统做出的决策以及产生这些决策的过程,以提高透明度,便于识别错误决策的原因,进而促进算法决策过程的可审计性和可解释性。
2.2 白皮书的强调
由于许多人工智能系统的复杂性和不透明性,白皮书强调了对高风险人工智能系统的编程、训练数据以及数据本身的记录要求。这些要求能追溯和验证人工智能系统可能存在问题的行动或决策,不仅有助于监管和执行,还能激励经济运营商尽早遵守规则。具体而言,在“有限、合理的时间段”内,应保留以下记录:
- 准确记录用于训练和测试人工智能系统的数据集,包括主要特征描述和选择方式。
- 在某些合理情况下,保留数据集本身。
- 记录构建、测试和验证人工智能系统所使用的编程和训练方法、过程和技术,包括安全方面以及避免可能导致禁止歧视的偏差。
2.3 议会决议的规定
欧洲议会的决议指出,任何高风险人工智能、机器人及相关技术,包括软件、算法和数据,都应透明且可追溯地开发、部署和使用,以便相关国家监管机构评估其合规性。
超级会员免费看
订阅专栏 解锁全文
27

被折叠的 条评论
为什么被折叠?



