Abstract
网络安全是一个数据分布不断变化的领域,攻击者探索更新的模式来攻击网络基础设施。 入侵检测系统是当今世界网络安全的重要层之一。 基于机器学习的网络入侵检测系统近年来开始显示出有效的结果。
通过深度学习模型,提高网络入侵检测系统的检测率。 模型越准确,复杂性越高,因此可解释性越低。 深度神经网络非常复杂且难以解释,这使得它们很难在生产中使用,因为其决策背后的原因尚不清楚。
在本文中,我们使用深度神经网络进行网络入侵检测,并提出了可解释的人工智能框架,以增加机器学习管道每个阶段的透明度。 这是通过利用可解释的人工智能算法来完成的,该算法专注于通过提供预测原因的解释来减少机器学习模型的黑匣子。
** 解释为我们提供了可衡量的因素,以确定哪些特征会影响网络攻击的预测以及影响程度**。 这些解释是根据 SHAP、LIME、对比解释方法 (CEM)、ProtoDash 和通过列生成的布尔决策规则 (BRCG) 生成的。 我们将这些方法应用于入侵检测系统 (IDS) 的 NSL-KDD 数据集并演示结果。
Introduction
现代入侵检测系统利用机器学习 (ML) 关联网络特征、识别数据模式并突出显示与攻击相对应的异常情况。 安全研究人员花费大量时间来了解这些攻击,并试图将它们分类为已知的类型,例如端口扫描、密码猜测、泪滴等。然而,由于攻击形势的