基于规则集的恶意软件检测中机器学习结果的可解释性
1. 评估指标
为了评估机器学习算法或基于规则的分类器(RBCs)的性能,我们使用了以下几个指标:
- 真正例(TP) :正确预测为恶意的恶意样本。
- 真反例(TN) :正确预测为良性的良性样本。
- 假正例(FP) :错误预测为恶意的良性样本。
- 假反例(FN) :错误预测为良性的恶意样本。
基于这些术语,我们可以计算以下指标:
- 假正率(FPR):$FPR \equiv \frac{FP}{FP + TN}$
- 真正率(TPR):$TPR \equiv \frac{TP}{TP + FN}$
- 准确率(ACC):$ACC \equiv \frac{TP + TN}{TP + TN + FP + FN}$
为了更好地区分RBCs的个体性能,我们还使用了决策列表的规则数量(DL size)和决策列表中规则的平均条件数量(ø r size)这两个指标。
2. 机器学习模型的可解释性
2.1 人类最易理解模型(HuMUM)
我们将具有向人类解释或用可理解的术语呈现能力的模型定义为人类最易理解模型(HuMUM)。在我们的工作中,RBCs生成的决策列表被视为HuMUM,因为它们简单且易于人类理解。
2.2 绝对可解释性和部分可解释性
- 绝对可解释性 :
超级会员免费看
订阅专栏 解锁全文
2万+

被折叠的 条评论
为什么被折叠?



