机器学习公平性与模型可解释性探索
1. 机器学习公平性面临的挑战
机器学习公平性方法的发展已引起研究界的广泛关注,并取得了显著进展,但构建公平模型仍面临诸多挑战:
- 缺失敏感属性 :即使已知的敏感属性很少甚至没有,实现机器学习模型的公平性仍是一项挑战。因为实现公平通常意味着确保模型不会对任何特定群体产生偏见,而当训练数据不包含个体敏感属性信息时,这很难做到。并且,随着对隐私的日益关注和相关法规(如 GDPR)的出台,企业需要保护敏感数据,这使得获取敏感属性信息更加困难。
- 多个敏感属性 :目前许多技术仅适用于处理单一敏感属性。然而,数据中可能存在多个敏感属性,如性别和种族。当数据中有多个敏感属性时,一个对某一敏感属性做出公平预测的模型,可能对其他敏感属性做出不公平的预测。例如,一个针对性别训练得公平的模型,对种族而言可能仍然不公平。多属性公平性目前是一个相对较少探索的问题。
- 公平性度量的选择 :减轻算法不公平性的不同技术设计依赖于所需的公平性度量。选择合适的指标来衡量公平性至关重要,这取决于具体的情况。
- 个体公平与群体公平的权衡 :群体公平关注的是确保受保护群体(如女性)在机器学习模型的结果中得到公平代表;个体公平关注的是确保具有相似敏感属性(如种族或性别)的个体受到模型的相似对待。群体公平和个体公平有不同的目标,现有的不公平缓解算法通常只关注其中一个目标。因此,一个针对个体公平进行优化的模型可能对群体不公平,反之亦然。不过,在某些情况下,两种公平性都是理想的。
- 解释性与公平性
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



