- 博客(12)
- 收藏
- 关注
原创 可解释性论文汇总
文章目录张拳石组可解释性论文思想汇总1. Interpreting multivariate interactions in DNNs(2021 AAAI)2. Interpreting and Boosting Dropout from a Game-Theoretic View(2021 ICLR)张拳石组可解释性论文思想汇总1. Interpreting multivariate interactions in DNNs(2021 AAAI)解决的问题:衡量特征组合之间的显著性交互来解释DN
2021-01-18 21:08:04
1713
原创 GCN在交通流预测方面的相关文章
文章目录乘客需求量预测(2019ICJAI)STG2Seq: Spatial-Temporal Graph to Sequence Model for Multi-step Passenger Demand Forecasting(2019CIKM)Matrix Factorization for Spatio-Temporal Neural Networks with Applications to Urban Flow Prediction乘客需求量预测(2019ICJAI)STG2Seq: Spa
2020-12-22 10:25:02
2777
原创 最近看过的相关可解释性的论文(持续更新...)
文章目录最近看过的相关可解释性的论文1. TabNet: Atentive Interpretable Tabular Learning最近看过的相关可解释性的论文1. TabNet: Atentive Interpretable Tabular Learning解决的问题基于树的方法能够有很好的解释性,但是需要大量的特征工程,以及精度不够高 基于DNN的方法能够有效编码各种格式数据,无需大量特征工程,且能够准确鲁棒地对数据进行处理,能否设计兼顾两者的DNN想法/创新:提出了一种基于表格的
2020-11-30 20:27:49
800
原创 GAT(参数中加入batch)
实现带有batch的GAT作者实现的是不带batch的,踩了一点坑,自己改了一下带batch的from torch import nnimport torchimport torch.nn.functional as Fclass nconv(nn.Module): def __init__(self): super(nconv, self).__init__() def forward(self, x, A): x = torch.einsu
2020-11-28 10:37:43
4602
32
原创 Adversarial Dynamic Shapelet Networks(对抗动态shapelet网络)
文章目录Adversarial Dynamic Shapelet Networks(2020AAAI)贡献方法阐述shapelet生成动态shapelet变换对抗训练策略多样性正则化总LOSS试验部分Adversarial Dynamic Shapelet Networks(2020AAAI)之前的工作:使用随机梯度下降进行shapelet的学习,但是学出的shapelet可能与任何实际的子序列都不相似(LTS)且学到的shapelet是静态的,无法动态更新贡献我们提出了一个shapelet生成器
2020-11-11 19:56:39
858
1
原创 Spatial-Temporal Synchronous Graph Convolutional Networks: A New Framework for Spatial-Temporal Net
Spatial-Temporal Synchronous Graph Convolutional Networks: A New Framework for Spatial-Temporal Network Data Forecasting(时空同步卷积网络)思想以前都方法都是单独建立时间空间组件来捕获时空相关性,但是忽略了时空异质性(只是捕获了前两种结构的影响)时空图中的每个节点都可以在同一时间步直接影响其相邻节点,并且这种影响是从实际的空间依赖性得出的。同时,由于时间序列中的时间相关性,每个节点
2020-11-09 10:55:57
1979
原创 CXPlain: Causal Explanations for Model Interpretation under Uncertainty
CXPlain: Causal Explanations for Model Interpretation under Uncertainty(不确定性下的模型因果解释)思路:将为机器学习模型的决策提供解释的任务作为因果学习任务,并训练因果解释(CXPlain)模型,以便在另一个机器学习模型中估计某些输入导致的输出贡献:引入因果解释(CXPlain)模型,这是一种新的学习方法,用于准确估计任何机器学习模型的特征重要性。提出了一种基于bootstrap重采样的方法来对CXPlain提供的特征重要性分
2020-11-04 20:25:07
828
1
原创 Time2Graph: Revisiting Time Series Modeling with Dynamic Shapelets(使用动态shapelets重新建模时间序列)
Time2Graph: Revisiting Time Series Modeling with Dynamic Shapelets(使用动态shapelets重新建模时间序列)时间序列建模的目的是为了发现按时间排序的数据中的关系。关键问题是如何从一个时间序列中提取关键特征,以前的大部分框架从经典的特性工程和表示学习到基于深度学习的模型。虽然这些方法都取得了很好的效果,但是也因为缺乏可解释性被人诟病。而本文关注的对象shapelet(代表一个类的时间序列子序列)能在分类场景中提供直接的可解释的和解释性的见
2020-10-31 16:49:52
3331
2
原创 Explaining Deep Neural Networks
Explaining Deep Neural Networks翻译一下牛津小姐姐这这篇优秀的博士论文,可以大致当做一篇综述来看,如果有翻译不好的地方,请大家多多指点附上论文地址 https://arxiv.org/pdf/2010.01496.pdf????????????文章目录Explaining Deep Neural Networks????????????摘要第一章 简介1.1 解释深度神经网络的重要性1.2 研究问题及大纲第二章 深度神经网络解释的背景知识2.1 记号2.2 解释性方
2020-10-24 11:58:41
1434
4
原创 HIERARCHICAL INTERPRETATIONS FOR NEURAL NET- WORK PREDICTIONS
文章目录HIERARCHICAL INTERPRETATIONS FOR NEURAL NET-WORK PREDICTIONS(神经网络预测的层次解释)主要概念及贡献具体方法1. 一般DNNs的上下文分解(CD)重要性得分2. agglomerative contextul decomposition (ACD)(凝聚的上下文分解)HIERARCHICAL INTERPRETATIONS FOR NEURAL NET-WORK PREDICTIONS(神经网络预测的层次解释)主要概念及贡献主要思想:
2020-10-17 17:41:25
559
原创 可解释的机器学习
文章目录可解释性可解释性的重要性可解释性方法的分类解释的性质人性化的解释可解释性可解释性的定义:可解释性是⼈们能够理解决策原因的程度。另⼀种定义是 :可解释性是指⼈们能够⼀致地预测模型结果的程度。机器学习模型的可解释性越⾼,⼈们就越容易理解为什么做出某些决策或预测。可解释性的重要性如果模型具有可解释性,我们可以更好的检查以下性质:公平性 (Fairness):确保预测是公正的,不会隐式或显式地歧视受保护的群体。可解释的模型可以告诉你为什么它决定某个⼈不应该得到贷款,并且使⼈们更容易判断该决
2020-10-14 20:15:09
2163
原创 GRACE: Generating Concise and Informative Contrastive Sampleto Explain Neural Network Model’s Predic
文章目录GRACE: Generating Concise and Informative Contrastive Sampleto Explain Neural Network Model’s Prediction1. Explanation by Intervention(解释干预)2. From Intervention to Generation(从干预到生成)目标函数4. GRACE: GENERATING INTERVENTIVECONTRASTIVE SAMPLES FOR MODEL EXP
2020-10-10 20:21:17
485
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人