可解释深度学习AI:基于语义归因的场景识别模型特征分析
在深度学习领域,可解释性一直是一个重要的研究方向。尤其是在场景识别任务中,理解模型如何根据输入特征进行预测,对于提升模型性能、发现数据集偏差等方面具有重要意义。本文将探讨通过语义归因方法来表征场景识别模型,分析输入特征对场景预测的影响。
1. 相关概念定义
- 无关语义类 :对于给定的显著性水平α,无关语义类集合SI(α)可定义为相关语义类集合SR(α)相对于所有语义类集合SR的相对补集,即SI(α) = SR \ SR(α)。为减少噪声分割的影响,可进一步去除在图像集Ik中表示程度较低的语义类对应的得分集。具体做法是,通过计算每个语义类l在Ik中的密度(将整个图像集分区中标记为l的像素数除以Ik中的总像素数),并使用显著性密度值β,去除无关集合中密度小于或等于β的得分集,得到截断后的无关集合SI(α,β)。
- 干扰语义类 :要提取干扰语义类集合,需要每个图像I的真实场景类别kGT。对于图像集Ik,干扰语义类集合D(Ik)定义为那些抑制后能将模型的错误预测(假阳性)转变为真实场景类别的语义类集合,即D(Ik) = {l | argmaxk(y) ≠ kGT ∧ argmaxk(yl) = kGT}。
2. 实验概述
- 实验目标 :帮助解释和理解任何分类模型,特别是场景识别模型。定性分析适用于任何最先进的场景识别方法,而不考虑其架构。
- 实现细节
超级会员免费看
订阅专栏 解锁全文
1248

被折叠的 条评论
为什么被折叠?



