深度单类分类的可解释性方法:FCDD

深度单类分类的可解释性方法:FCDD

fcdd Repository for the Explainable Deep One-Class Classification paper fcdd 项目地址: https://gitcode.com/gh_mirrors/fc/fcdd

项目介绍

在深度学习领域,异常检测是一个重要的研究方向。传统的深度单类分类方法在特征空间中集中正常样本,从而将异常样本映射到远离正常样本的区域。然而,这种高度非线性的映射过程使得解释模型的决策变得非常困难。为了解决这一问题,我们推出了Fully Convolutional Data Description (FCDD),一种可解释的深度单类分类方法。FCDD不仅在检测性能上表现出色,还能为模型的决策提供合理的解释热图。

项目技术分析

FCDD基于PyTorch 1.9.1和Python 3.8开发,已在Linux系统上进行了测试。尽管我们提供了一个Windows兼容的分支,但并不能保证其在Windows系统上的表现。FCDD的核心思想是通过全卷积网络将样本映射到特征空间,并生成解释热图。这些热图不仅展示了模型对样本的分类决策,还能帮助用户理解模型为何将某些样本识别为异常。

项目及技术应用场景

FCDD在多个常见的异常检测基准数据集上表现优异,包括CIFAR-10、ImageNet和MVTec-AD。特别是在MVTec-AD数据集上,FCDD在无监督设置下达到了新的技术水平。此外,FCDD还可以在训练过程中结合真实异常图,即使只使用少量(约5个)真实异常图,也能显著提升性能。

项目特点

  1. 可解释性:FCDD生成的解释热图直观地展示了模型的决策过程,帮助用户理解模型的行为。
  2. 高性能:在多个基准数据集上,FCDD的检测性能与现有方法相当,甚至在某些情况下超越了现有方法。
  3. 灵活性:FCDD支持多种数据集和训练模式,用户可以根据自己的需求进行定制。
  4. 易用性:项目提供了详细的安装和使用指南,用户可以轻松上手。

总结

FCDD为深度单类分类提供了一种全新的可解释性方法,不仅在性能上表现出色,还能为用户提供直观的解释热图。无论是在学术研究还是工业应用中,FCDD都具有广泛的应用前景。如果你正在寻找一种既高效又可解释的异常检测方法,FCDD绝对值得一试!


参考文献

Liznerski, P., Ruff, L., Vandermeulen, R. A., Franks, B. J., Kloft, M., & Müller, K. R. (2021). Explainable Deep One-Class Classification. International Conference on Learning Representations. PDF


项目地址GitHub

fcdd Repository for the Explainable Deep One-Class Classification paper fcdd 项目地址: https://gitcode.com/gh_mirrors/fc/fcdd

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

高霞坦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值