可解释性深度学习技术详解
在深度学习领域,可解释性是一个备受关注的话题。本文将深入探讨可解释性深度学习(IDL)的相关技术,主要介绍“分治法”和“贪心算法”这两种可解释性策略及其具体应用案例。
1. 分治法(Divide and Conquer)
分治法是一种广泛应用于编程的方法,在可解释性深度学习中,它将黑盒模型问题分解为更小的子问题,然后独立解决每个子问题,最后合并所有子问题的解以获得原问题的解。该方法可以是特定于模型的,也可以是与模型无关的,其核心思想类似于归并排序或Strassen矩阵乘法,将模型性能的解释分解为局部、基本或实例级别的理解,最终回归到对模型的全局或一般理解。
1.1 基于案例推理生成有用解释(Case-Based Reasoning Generating Useful Explanations)
- 核心思想 :从分治法的角度来看,基于案例推理(CBR)技术通过利用先前的经验(相似的过去案例)、领域知识和上下文,为模型带来新的维度,为用户生成更准确的解释。这一原理广泛基于人类解决问题的方式,即在相似情况下利用过去的经验解决新问题。在可解释人工智能(XAI)的背景下,CBR尝试生成的解释有时被称为基于案例的解释(CBE)。
- 具体应用 :以一个深度神经架构为例,它通过找到与图像分类相关的原型部分,并利用原型的先前证据进行预测。该架构由一系列卷积层、一个原型层、一个全连接层和输出对数层组成。网络的训练分阶段进行,分别针对各个层进行训练,先训练整个网络,再训练原型层,最后优化最后一层。
- CB
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



