高风险人工智能系统的透明度与合规要求
1. 高风险人工智能系统概述
高风险人工智能系统,如深度伪造冒充真人以及由人工智能撰写的编辑内容(“人工智能作者”)等,并非被禁止,也不应被视为不可取。相反,遵守相关规定中的合规要求,能使这类系统更值得信赖,更有可能在欧洲市场取得成功。
2. 适用范围与豁免情况
高风险人工智能系统应遵守特定的强制性要求,这些要求旨在有效减轻其对健康、安全和基本权利造成的风险。不过,拟议的人工智能法案中的某些条款规定了豁免情况:
- 已上市或投入使用的系统 :法案第83(2)条规定,在法案实施前已投放市场或投入使用的高风险人工智能系统,除非在该日期后其设计或预期用途发生重大变化,否则法案将不适用。但这一规定引发了不同观点:
- 人权观察组织认为,这些“遗留高风险人工智能系统”也应受法案覆盖,以防止各国和私营部门为避免合规要求而加速部署高风险人工智能系统。
- 欧洲电信标准协会(ETSI)欢迎委员会的保证,即法案生效前进入市场的解决方案不受事前监管和一致性测试。但当这些解决方案进行实质性更新时,需评估其是否受法案约束。
- 谷歌指出,需要进一步明确“重大变化”的定义,以便已获豁免的高风险人工智能系统提供商了解何时系统需遵守法案要求并进行合规评估。
- 信息技术产业委员会(ITI)认为该条款可能导致法律不确定性,建议法案明确“重大变化”的定义。
- 议会的两位联合报告员(Tudorache和Benifei)反对给予任何豁免。例如,Tudorache等人提议,在法案实施日期前已投放市场或投入使用的高风险人工智能系统运营商,应在法案生效后2年内或系统设计或预期用途发生
高风险AI系统的合规与透明度
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



