可解释深度学习:场景识别与图像分类的特征理解
在可解释人工智能(XAI)和深度学习领域,理解模型如何做出决策至关重要。解释方法不仅有助于揭示模型或数据中存在的虚假相关性和偏差,还能帮助解释系统的失败原因。下面将介绍场景识别模型特征归因以及卷积神经网络图像分类解释的相关内容。
场景识别模型的特征归因
在场景识别中,分析误分类样本时,通常会分析哪些场景聚集了大部分错误预测,例如“泻湖 - 小岛”或“餐厅露台 - 啤酒花园”这样相似场景类别的误判。但这种分析无法揭示混淆背后的原因。而提出的干扰语义类别的可视化策略,有助于识别有问题的语义类别,进而定义新的定制训练方案。
从相关结果来看,对于某些场景类别,“建筑物”和“墙壁”通常是潜在的干扰语义类别。这是因为它们具有独特的外观,其存在可能会使预测从自然场景类别转向城市场景类别。例如,一个庭院可能在建筑物后面有一个小菜园,这可能导致模型误判。需要注意的是,泻湖图像中存在类似建筑物像素,并不意味着泻湖场景中真的有建筑物,而是图像中存在类似建筑结构的区域,这些区域会使语义分割产生误判,也会干扰场景识别模型,抑制这些区域可以纠正预测。
这种通过语义归因来表征场景识别模型的方法,通过利用最先进的语义分割模型获得的语义分割标签,对彩色图像的特定区域进行扰动,得到完整的归因图。该方法的主要创新点在于利用类 - 语义关系进行逐场景(而非逐图像)分析,能够深入分析每个场景类别中相关、无关和干扰的语义标签,帮助研究人员和开发者深入剖析训练模型和训练数据集。
卷积神经网络图像分类的解释方法
对于卷积神经网络(CNN)的解释方法,主要分为黑盒方法和白盒方法。
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



