解读、可解释性与可说明性:为何这一切至关重要
1. 可说明性的定义
可说明性涵盖了可解释性的所有内容。不同之处在于,它比可解释性对透明度的要求更深入,因为它不仅要求对模型推理进行解释,还要求对模型的内部运作和训练过程提供人类友好的解释。根据应用场景的不同,这一要求可能会延伸到模型、设计和算法的不同程度的透明度。具体有以下三种透明度:
- 模型透明度 :能够逐步解释模型是如何训练的。例如,在简单的体重预测模型中,我们可以解释普通最小二乘法这种优化方法是如何找到使模型误差最小的系数的。
- 设计透明度 :能够解释所做的选择,如模型架构和超参数。比如,基于训练数据的规模或性质来证明这些选择的合理性。如果进行销售预测,且知道销售具有12个月的季节性,那么这可能是一个合理的参数选择。若有疑问,可使用成熟的统计方法来确定正确的季节性。
- 算法透明度 :能够解释自动化优化,如超参数的网格搜索。但需注意,由于其随机性质而无法重现的方法,如超参数优化的随机搜索、提前停止和随机梯度下降,会使算法不透明。
不透明模型之所以被称为不透明,仅仅是因为它们缺乏模型透明度。然而,对于许多模型来说,这是不可避免的,无论模型选择多么合理。在许多情况下,即使输出训练神经网络或随机森林所涉及的数学公式,也可能引发更多疑虑而非建立信任。原因主要有以下几点:
- 缺乏统计基础 :不透明模型的训练过程将输入映射到最优输出,留下看似随意的参数轨迹。这些参数是针对成本函数进行优化的,但缺乏统计理论的支持。
- 不确定性和不可重复
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



