- 博客(19)
- 收藏
- 关注
原创 【读论文】Explaining time series predictions with dynamic masks
解释多变量时间序列的预测会带来额外的困难,例如解释必须体现时间依赖性和大量输入。(存在的挑战)为了应对这些挑战,我们提出了动态掩码 (Dynamask)。(解决方案)该方法通过对输入序列拟合扰动掩模,在每个时间步产生每个特征的实例重要性分数。为了考虑数据的时间依赖性,Dynamask研究了动态摄动算子的影响。为了处理大量输入,我们提出了一种方案,使特征选择更简洁和易读。(具体做法)
2024-06-26 12:38:59
1050
原创 【读论文】Learning perturbations to explain time series predictions
解释“基于多变量时间序列数据的预测”的困难在于:不仅要处理多个特征,还要处理时间依赖性。而且根据时间信息的不同,相同的特征可能会对预测产生截然不同的影响。(在多变量时间序列预测上进行解释的难点)以前的工作使用了基于扰动的显著性方法来解决这个问题,使用可训练的掩码来对输入进行扰动,以发现哪些特征在哪些时间驱动了模型的预测结果。然而,这类方法从静态数据的类似方法中得到启发,引入了固定的扰动,而在时间序列数据上似乎没有什么动机这样做。(原有方法存在的问题)
2024-06-21 20:31:15
820
原创 【读论文】A Unified Approach to Interpreting Model Predictions
文章中提出了一个解释预测的统一框架SHAP(SHapley Addictive exPlanations),SHAP为每个特征指定一个特定预测的重要值。引入了将模型预测的任何解释视为模型本身的观点,我们称之为解释模型。这让我们可以定义加性特征归因方法的类,它统一了目前的六种方法。并提出将SHAP值作为各种方法近似的特征重要性的统一度量。
2022-09-16 14:11:48
3136
原创 可解释人工智能——输入单元重要性归因
输入单元重要性归因,即计算输入中各个单元的重要性(Importance)。重要性能够反映该输入单元对于神经网络的影响大小,重要性越高,表明影响越大。为输入单元的重要性进行量化和分析,能够帮助人们理解是哪些输入变量促使神经网络得到了当前的结果,从而对神经网络的特征建模有一个初步的认识。这里介绍包括SHAP算法、LIME算法、导向反向传播算法、积分梯度算法、逐层相关性传播算法等。......
2022-08-31 12:57:33
2893
1
原创 【读论文】Visualizing and Understanding Convolutional Networks
在本篇文章中作者引入了一种新的可视化技术,该可视化技术可以揭示在模型的任何一层激发个体特征图的输入刺激,允许我们在模型训练期间观察特征的演变,用来深入了解中间特征层的功能和分类器的操作。这些可视化使我们能够找到比Krizhevsky等人在ImageNet分类基准测试中表现更好的模型架构。...
2022-08-29 11:45:56
1169
原创 【读论文】A Deep Neural Network for Unsupervised Anomaly Detection and Diagnosis in Multivariate Time...
文章提出的方法:多尺度卷积递归编码器-解码器(Multi-Scale Convolutional Recurrent Encoder-Decoder, MSCRED)该方法的主要思路:(1) MSCRED首先构造多尺度(分辨率)特征矩阵来描述跨不同时间步的多级系统状态,系统状态的不同级别表示不同异常事件的严重程度。(2) 给定签名矩阵,使用卷积编码器对传感器之间的相关模式进行编码,并使用基于注意力的卷积长短时记忆(ConvLSTM)网络对时间信息进行建模;(3) 使用卷积解码器重构特征矩阵,
2022-08-23 10:49:49
2381
1
原创 ConvLSTM原理解读
LSTM非常擅长处理时序信息也能处理空间信息。但对于三维图形来讲,因为有着丰富的空间信息并且每一个点和周围是有很强的相关性的,这就带来了冗余,传统的LSTM是很难刻画这种空间特征的。为了克服LSTM在处理三维信息中的不足,ConvLSTM 将 LSTM 中的2D的输入转换成了3D的tensor,最后两个维度是空间维度(行和列)。对于每一时刻t的数据,ConvLSTM 将 LSTM 中的一部分连接操作替换为了卷积操作,即通过当前输入和局部邻居的过去状态来进行预测。......
2022-08-18 15:12:47
20262
原创 循环神经网络(RNN&LSTM)
循环神经网络(Recurrent Neural Network , RNN)是专门用来处理序列数据的神经网络,它能够挖掘数据中的时序信息以及语义信息。利用了RNN的这种能力,使深度学习模型在解决语音识别、语言模型、机器翻译以及时序分析等NLP领域的问题时有所突破。全连接神经网络在处理序列数据时存在的缺陷:比如在股票预测问题中,股票价格不仅取决于现在的输入数据状态,更依赖于历史信息,这是全连接神经网络所不能做到的。......
2022-08-18 13:54:45
7414
原创 【读论文】Graph Neural Network-Based Anomaly Detection in Multivariate Time Series
为了充分利用多元时间序列中传感器之间的复杂关系,利用图神经网络(GNNs)来学习传感器之间的关系图。现有的方法没有明确地学习变量之间现有关系的结构,或使用它们来预测时间序列的预期行为。基于图的方法通过用边表示相互依赖关系,为传感器之间的关系建模提供了一种方法。:为多元时间序列数据开发特定的方法,明确地捕获传感器之间的关系图。...
2022-08-16 13:47:36
3821
12
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人