机器学习建模中的可解释性与公平性
一、可解释性的局限性
可解释性有助于为模型用户建立信任,它能让我们理解模型如何针对数据集中的单个或多个实例生成输出,从性能和公平性的角度帮助改进模型。然而,仅仅盲目使用可解释性技术并在 Python 中生成一些结果是不足以实现这些改进的。
比如,在使用多样化反事实解释(DiCE)生成反事实时,生成的一些反事实可能不合理且无意义,不能依赖它们。当使用 SHAP 或 LIME 为一个或多个数据点生成局部解释时,需要注意特征的含义、每个特征的值范围及其背后的含义,以及所研究的每个数据点的特征。利用可解释性进行决策时,要区分模型问题和正在研究的训练、测试或生产中的特定数据点问题。一个数据点可能是离群值,会使模型对该点的预测不可靠,但不一定意味着整个模型不可靠。
二、公平性相关概念
公平性在机器学习的不同行业应用中是一个重要话题。要评估公平性,需要有特定的考量,并使用适当的指标来量化模型的公平性。
-
公平性的定义和方法
| 机器学习公平性主题 | 描述 |
| — | — |
| demographic parity(人口统计学平等) | 确保预测不依赖于给定的敏感属性,如种族、性别等 |
| equality of odds(机会均等) | 确保在给定真实输出的情况下,预测与给定敏感属性无关 |
| equality of opportunity(机会平等) | 确保为个人或群体提供平等的机会 |
| individual fairness(个体公平性) | 确保对个体而非具有共同属性的群体公平
超级会员免费看
订阅专栏 解锁全文
1376

被折叠的 条评论
为什么被折叠?



