可信人工智能的伦理原则与关键要求
1. 人工智能伦理原则的张力与权衡
在人工智能系统的应用中,伦理原则之间可能会出现张力,并且需要进行权衡。高级别专家组(HLEG)的《可信人工智能伦理指南》认识到,四项伦理原则之间可能会产生冲突,而且没有固定的解决方案。
1.1 原则冲突示例
例如,预防伤害原则可能与人类自主性原则相冲突。以“预测性警务”中使用人工智能系统为例,它可能有助于减少犯罪,但涉及的监控活动会侵犯个人自由和隐私。
1.2 权衡的影响与措施
人工智能系统带来的好处应大大超过预期的个人风险,因此需要采取适当措施来减轻这些风险,并确保所选措施符合相称性原则。特别要关注弱势群体,如老年人、儿童、少数民族、残疾人等,以及权力或信息不对称的情况,如雇主与雇员、企业与消费者、政府与公民之间的关系。
1.3 决策考量与权衡方法
人工智能从业者应评估可用选项,对所选措施的预期收益和潜在成本进行评估。为解决伦理原则之间的潜在张力,决策应包含对所选措施相称性的讨论,并在可能的情况下考虑替代措施,以实施负担最小的措施。
1.4 权衡的要求与限制
伦理原则之间的张力会导致不可避免的权衡,应采用基于影响的方法。这些权衡应经过合理推理、妥善记录,并明确承认和评估其对基本权利的风险,优先选择对基本权利不利影响最小的方案。在无法确定符合伦理的权衡时,相关人工智能系统的开发、分发和使用不应按原计划进行,因为某些基本权利和相关原则是绝对的,不能进行平衡考量,如人类尊严。
2. 欧盟基本权利宪章中的权利保障
《欧盟基本权利宪章》中的一
超级会员免费看
订阅专栏 解锁全文
59

被折叠的 条评论
为什么被折叠?



