可信人工智能的伦理原则:公平与正义
1. 非恶意原则的思考
在人工智能的发展中,我们面临着一个类似“是要防范弗兰肯斯坦还是他的怪物作恶”的困惑。促进非恶意原则的实施,既包括预防意外(如过度使用)造成的伤害,也包括预防故意(如滥用)导致的伤害。从非恶意原则的角度来看,这并非是一个非此即彼的问题,关键在于防止各种伤害的产生,无论是源于人类的意图,还是机器不可预测的行为(包括无意地引导人类产生不良行为)。
2. 公平/正义原则的内涵
2.1 HLEG伦理准则中的公平原则
HLEG的《可信人工智能伦理准则》指出,人工智能系统的开发、部署和使用必须公平。这一原则意味着以下几个方面的承诺:
- 纠正过去的不公正 :利用人工智能消除不公平的歧视,确保个人和群体免受不公平的偏见、歧视和污名化。
- 防止新的伤害 :避免破坏现有的社会结构,通过包容性的设计过程确保平等的访问权和平等的待遇,在人工智能系统的整个生命周期中实现包容和多样性。同时,人工智能系统的使用不应导致人们受到欺骗或不合理地损害其选择自由。
- 分配正义 :确保人工智能的使用所创造的利益能够得到共享,实现利益和成本的平等公正分配。
2.2 比例原则的要求
AI从业者在选择手段和目标时,应尊重比例原则。具体操作步骤如下:
1. 评估选项 :检查可用的选项,评估所选选项的预期收益和潜在成本,确保所选措施与比例原则兼容一致。
2. 讨论比例性
超级会员免费看
订阅专栏 解锁全文
21

被折叠的 条评论
为什么被折叠?



