作者:18届 cyl
时间:2021-08-14
code: github.com/tensorflflow/tcav
一、简单介绍
这是一篇使用人为提出的概念向量(Concept Activation Vectors,CAV)对模型进行解释的方法,并且提供了对CAV度量的标准(TCAV)。
二、问题陈述
1.鉴于机器学习模型应用的广泛性和重要性,我们必须去理解机器学习模型的行为(即该模型是基于什么来做出判断的)。可解释性需求随之产生。

比如我们有一个已经训练好了的神经网络,输入一张鸟的图像,它可以告诉我们这张图片里是junco
bird(灯芯草雀)。与之对应的可解释性问题就是:为什么它被分类为junco bird?
- 一种自然而然想到的解释方法是,根据机器学习模型的输入特征的重要性来解释(在线性回归模型中,这个重要性表示为系数权重;在对图像进行分类的卷积网络模型中

本文介绍了使用概念激活向量(CAV)来解释神经网络模型的决策过程。CAV通过定义概念并利用线性模型检测其对分类器的影响,解决了现有解释方法如saliencymap的局限性。TCAV是一种统计分析工具,用于量化用户定义概念的重要性。文章还探讨了验证CAV有效性的方法,并指出CAV有助于识别算法潜在的歧视问题,提高模型的透明度。
最低0.47元/天 解锁文章
3477





