Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors

本文介绍了使用概念激活向量(CAV)来解释神经网络模型的决策过程。CAV通过定义概念并利用线性模型检测其对分类器的影响,解决了现有解释方法如saliencymap的局限性。TCAV是一种统计分析工具,用于量化用户定义概念的重要性。文章还探讨了验证CAV有效性的方法,并指出CAV有助于识别算法潜在的歧视问题,提高模型的透明度。

作者:18届 cyl

时间:2021-08-14在这里插入图片描述

code: github.com/tensorflflow/tcav

一、简单介绍

这是一篇使用人为提出的概念向量(Concept Activation Vectors,CAV)对模型进行解释的方法,并且提供了对CAV度量的标准(TCAV)。

二、问题陈述

1.鉴于机器学习模型应用的广泛性和重要性,我们必须去理解机器学习模型的行为(即该模型是基于什么来做出判断的)。可解释性需求随之产生。
在这里插入图片描述

比如我们有一个已经训练好了的神经网络,输入一张鸟的图像,它可以告诉我们这张图片里是junco
bird(灯芯草雀)。与之对应的可解释性问题就是:为什么它被分类为junco bird?

  1. 一种自然而然想到的解释方法是,根据机器学习模型的输入特征的重要性来解释(在线性回归模型中,这个重要性表示为系数权重;在对图像进行分类的卷积网络模型中
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

中南大学苹果实验室

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值