谷歌云Vertex AI的机器学习模型可解释性指南
1. 谷歌云Vertex AI的可解释AI功能概述
谷歌云Vertex AI提供了一系列工具和选项,旨在让AI系统更易于理解。其可解释AI(XAI)选项大致可分为两类:
- 基于特征的解释 :特征归因指的是模型中的每个特征对特定实例预测的贡献程度。在进行预测请求时,你会得到模型生成的预测值;而请求解释时,除了预测值,还会得到特征归因信息。特征归因主要适用于表格数据,但也包括图像数据的内置可视化功能,便于更直观地理解和解释归因。
- 基于示例的解释 :Vertex AI利用最近邻搜索来提供基于示例的解释。该方法通过找到与输入最接近的示例(通常来自训练数据),并返回最相似示例的列表。其原理是相似的输入可能产生相似的预测,通过检查这些相似示例,我们可以更好地理解和解释模型的输出。
| 方法 | 兼容的Vertex AI模型资源 | 示例用例 |
|---|---|---|
| 采样Shapley(SHAP) | 任何自定义训练的模型(在任何预测容器中运行);AutoML表格模型 | 表格数据的分类和回归 |
| 集成梯度 | 使用TensorFlow预构建容器进行预测服务的自定义训练TensorFlow模型;AutoML图像模型 | 表格数据的分类和回归;图像 |
超级会员免费看
订阅专栏 解锁全文
903

被折叠的 条评论
为什么被折叠?



