机器学习可解释性方法的分类、范围、评估与特性
1. 可解释性方法的分类
机器学习可解释性方法可以根据多种标准进行分类:
1.1 内在可解释性与事后可解释性
- 内在可解释性 :通过限制机器学习模型的复杂性来实现可解释性。例如,短决策树或稀疏线性模型因其结构简单而被认为具有内在可解释性。
- 事后可解释性 :在模型训练后应用解释方法。例如,排列特征重要性就是一种事后解释方法,并且事后方法也可应用于内在可解释的模型,如为决策树计算排列特征重要性。
1.2 解释方法的结果
- 特征汇总统计 :许多解释方法为每个特征提供汇总统计信息,有的方法为每个特征返回单个数字(如特征重要性),有的则返回更复杂的结果(如两两特征交互强度)。
- 特征汇总可视化 :大多数特征汇总统计信息也可以可视化呈现。例如,部分依赖图以曲线展示特征与平均预测结果的关系,可视化比表格更能体现其意义。
- 模型内部信息 :对内在可解释模型的解释属于此类,如线性模型中的权重、决策树的学习树结构。在某些情况下,模型内部信息和特征汇总统计的界限并不清晰,如线性模型中的权重既是模型内部信息,也是特征的汇总统计信息。此外,卷积神经网络中特征检测器的可视化也输出模型内部信息,这类方法通常是特定于模型的。
- 数据点 :该类别包括所有返回数据点(已存在
超级会员免费看
订阅专栏 解锁全文
1561

被折叠的 条评论
为什么被折叠?



