人工智能系统的轻触式义务:透明度义务与行为准则
1. 透明度义务概述
人工智能法案采用基于风险的方法,仅在人工智能系统可能对基本权利和安全构成高风险时才施加监管负担。因此,对于某些(非高风险)人工智能系统,如聊天机器人、情绪识别系统或深度伪造技术,应仅施加有限的透明度义务。
以下是需要施加有限透明度义务的人工智能系统类型:
- 与人类进行交互的人工智能系统。
- 用于检测情绪或根据生物特征数据确定与(社会)类别的关联的系统。
- 生成或操纵内容(深度伪造)的系统。
2. 与人类交互的人工智能系统的透明度要求
提供商应确保旨在与人类交互的人工智能系统的设计和开发方式,能让自然人知晓他们正在与人工智能系统交互,但在以下情况除外:
- 从使用的情况和背景中可以明显看出。
- 人工智能系统被授权用于犯罪调查(除非这些系统可供公众举报犯罪)。
信息提供给自然人时必须“客观、简洁且易于理解”,在公民能立即明显意识到他们正在与人工智能系统交互的情况下,则无需提供此类信息。
以下是不同文本对于此义务的表述对比:
|文本来源|具体表述|
| ---- | ---- |
|委员会提案|提供商应确保旨在与人类交互的人工智能系统的设计和开发方式,使自然人知晓他们正在与人工智能系统交互,除非从使用的情况和背景中明显可知,或者该人工智能系统被授权用于犯罪调查(除非这些系统可供公众举报犯罪)。|
|理事会妥协文本|提供商应确保旨在与自然人交互的人工智能系统的设计和开发方式,使自然人知晓他们正在与人工智能系统交互,除非从合理人的角度来看,从使用的情况和背景中明
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



