实现可信人工智能:关键伦理要求解析
1. 隐私与数据治理
隐私与不造成伤害的原则紧密相连,同时也关系到人类尊严以及身心完整性的基本权利。在人工智能系统对私人生活和隐私的影响方面,个人信息保护权和隐私权可能会受到挑战。因此,在人工智能系统的整个生命周期中,都应确保隐私和数据保护。
为了指导自我评估人工智能系统对隐私和数据保护的影响,可参考以下问题:
- 是否考虑了人工智能系统对隐私权、身心和/或道德完整性权利以及数据保护权的影响?
- 根据具体用例,是否建立了能够标记与人工智能系统隐私相关问题的机制?
除了隐私问题,还需确保数据集的质量和完整性。用于训练人工智能系统的数据应尽可能具有包容性,不应反映偏见、包含不准确或有缺陷的内容。
为防止个人数据被恶意使用或反映偏见模式而导致人工智能系统被操纵,必须对数据访问进行充分控制,并引入数据访问协议。以下是一些自我评估人工智能系统是否符合数据保护相关要素的问题:
|评估项目|具体问题|
| ---- | ---- |
|数据使用情况|人工智能系统是否使用或处理个人数据(包括特殊类别的个人数据)进行训练或开发?|
|数据保护措施|是否实施了以下一些在《通用数据保护条例》(GDPR)中规定为强制性的措施,或非欧洲地区的等效措施:
- 数据保护影响评估(DPIA);
- 指定数据保护官(DPO),并在人工智能系统的开发、采购或使用阶段早期让其参与;
- 数据处理的监督机制(包括限制访问合格人员、记录数据访问和进行修改的机制);
- 实现隐私设计和默认隐私的措施(如加密、假名化、聚合、匿名化);
- 数据最小化,特别是个人数据(
超级会员免费看
订阅专栏 解锁全文

971

被折叠的 条评论
为什么被折叠?



