Beyond Sparsity: Tree Regularization of Deep Models for Interpretability
这篇文章是使用树正则方法对深度网络的可解释性的探索,论文的一作作者为Mike Wu, 时为Stanford University博士一年级学生,该论文发表在AAAI18, 该论文的源代码地址为https://github.com/dtak/tree-regularization-public。
可解释性相关概念
可解释性就是人类的模仿性(human simulatability)。如果人类可以在合适时间内采用输入数据和模型参数,经过每个计算步,作出预测,那么该模型就具备了模仿性。
在医疗中,该模仿性的应用为:给定一个模仿性模型,医生可以根据检查模型的每一步是否违背其专业知识,甚至推断数据中的公平性和系统偏差等,这可以帮助从业者利用正向反馈来对模型进行改进。
本文探讨的主要对象 – 决策树,就具有模仿性。通过决策树,按照相关的基本情况在决策树下一直走下去,就可以理解这些特征并进行预测。
此处树正则化与提升DNN的模仿性之间是否有直接必然联系?
源码执行与演示
首先从官网上下载对应的源码,接着按照README.md文件中的指导,构建conda环境(可选项),然后使用
pip install -r experiments.txt
下载所需要的所有python 包。
(值得注意的是,此处可以进行换源,参照http://blog.youkuaiyun.com/lambert310/article/details/52412059)

本文探讨了一种使用树正则化增强深度网络可解释性的方法,介绍了Stanford大学Mike Wu的研究成果,该研究通过树正则化提升深度模型的模仿性,使模型预测过程更易于人类理解和验证。
最低0.47元/天 解锁文章
2万+

被折叠的 条评论
为什么被折叠?



