28、机器学习模型可解释性与无代码计算机视觉应用

机器学习模型可解释性与无代码计算机视觉应用

1. 机器学习训练追溯:支持者与反对者

在模型部署后对其预测进行解释是常见的可解释性方法。不过,谷歌研究人员提出了一种名为Tracin的方法,可用于解释模型在训练过程中对训练示例的行为。

其基本思路是选取单个训练示例(如y轴左侧的西葫芦图像),观察权重更新时该训练示例损失的变化。Tracin能识别出导致单个训练示例预测类别变化或损失方向改变的训练示例。使损失降低(即改善预测)的示例称为支持者,使损失增加的示例称为反对者。通常,反对者是属于其他类别的相似图像,支持者是与所选训练示例属于同一类别的相似图像,但误标记的示例和异常值可能是例外。

2. 添加可解释性

由于图像可解释性与单个预测相关,建议使用能对每个预测执行一种或多种可解释性技术的机器学习部署平台。可解释性方法计算成本高,能分布式扩展计算的部署平台可提高预测分析效率。

这里将展示如何使用集成梯度(Integrated Gradients,IG)和xRAI从部署在Google Cloud的Vertex AI上的模型获取解释。同时,Azure ML和Amazon SageMaker Clarify支持SHAP方法,尽管语法略有不同,但概念上使用方式相似。

2.1 可解释性签名

可解释性方法需要使用原始图像的扰动版本调用模型。假设花卉模型有如下导出签名:

@tf.function(input_signature=[tf.TensorSpec([None,], dtype=tf.string)])
def predict_
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值