利用关联规则挖掘方法解释时间序列上的CNN分类器
1. 引言
为了助力对当今监控系统的理解,系统网络中运用了大量异构传感器。然而,由于传感器数量众多,待处理的数据量也在迅速增长。因此,用于支持决策的自动化系统正得到越来越广泛的应用。
我们关注的一个人工智能应用是海上监控。2019年,约80%的全球贸易由航运业处理。因此,为了打击非法活动,如无管制捕鱼和走私行动,可靠的船只识别是必要的。在此,卷积神经网络(CNN)被用作分类器,通过分析船只的运动模式,训练好的模型能够区分常见的船只类型。这可以看作是更高级决策支持系统的一个组成部分。
不过,此类系统被广泛接受的一个主要障碍是黑盒模型难以解释。黑盒模型是指那些内部工作机制较难理解的模型。近年来愈发成功的深度神经网络,常被视为黑盒模型。尽管它们能提供高精度的结果,但无法估计每个特征对模型预测的重要性。这意味着,像基于深度学习的最先进分类器这样的黑盒模型所产生的结果,其可解释性受到质疑。为确保操作人员对这些系统的信任,解释预测背后的原因至关重要。因此,为了使此类模型的结果更具可解释性,本文对不同的规则挖掘方法进行了评估。
本文的结构如下:
- 介绍可解释人工智能(XAI)方法的相关研究现状。
- 描述分类的基础、数据预处理以及关联规则挖掘(ARM)。
- 讨论三种评估的规则挖掘方法。
- 列出用于比较所实施方法的质量指标。
- 展示实验结果。
- 给出结论和对未来工作的展望。
2. 相关工作
XAI研究领域致力于为复杂动态和非线性编程系统的结果生成易于理解的解释和理由。模型可解释性通过使模型的工作机制透明化,让人能更
超级会员免费看
订阅专栏 解锁全文
1095

被折叠的 条评论
为什么被折叠?



