可解释机器学习中的友好解释与实用数据集
1. 人类友好的解释
我们深入探究人类眼中“好”的解释是什么,以及这对可解释机器学习有何意义。
1.1 什么是解释
解释是对“为什么”问题的回答。例如“为什么治疗对患者无效?”“为什么我的贷款申请被拒绝?”“为什么我们还未与外星生命取得联系?”前两个问题属于“日常”解释范畴,第三个则属于“更普遍的科学现象和哲学问题”。我们关注“日常”类型的解释,因为它们与可解释机器学习相关。以“如何”开头的问题通常也可转化为“为什么”的问题,如“我的贷款是如何被拒绝的?”可变为“为什么我的贷款申请被拒绝?”。这里的“解释”既指解释的社会和认知过程,也指这些过程的产物,解释者可以是人也可以是机器。
1.2 什么是好的解释
- 对比性 :人类通常不会问为什么做出了某个预测,而是问为什么做出这个预测而非另一个预测。我们倾向于从反事实的角度思考,例如“如果输入X不同,预测会怎样?”对于房价预测,房主可能想知道为什么预测价格比预期的高。如果贷款申请被拒,我们关心的是申请中需要改变哪些因素才能获批,即想了解当前申请与获批申请的差异。在可解释机器学习中,对比性解释很重要,它比完整解释更易理解。创建对比性解释依赖于具体应用,需要一个参考点,这可能取决于待解释的数据点和接收解释的用户。例如,房价预测网站的用户可能希望将某房屋价格预测与自己的房子、网站上的其他房子或周边平均房价进行对比。自动创建对比性解释的解决方案可能涉及在数据中寻找原型。
- 选择性 :人们不期望解释涵盖事件的所有实际原因,通常会从多种可能原因中选择一两个
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



