本地可解释模型–不可知论解释(LIME)的直觉、理论和代码
LIME 是XAI方法的起源。它让我们了解机器学习模型的工作原理。具体来说,它可以帮助我们了解个体预测是如何做出的(即局部解释)。
尽管最近的进展意味着 LIME 不那么受欢迎,但它仍然值得了解。这是因为它是一种相对简单的方法,对于许多可解释性问题来说“足够好”。它也是一种较新的局部可解释性方法——SHAP 的灵感来源。
因此我们将:
- 讨论 LIME 为获取本地解释而采取的步骤。
- 详细讨论与这些步骤相关的一些选择,包括如何加权样本以及使用哪个替代模型。
- 应用lime Python 包:https://github.com/marcotcr/lime。
在此过程中,我们将该方法与