可解释深度学习:概念、方法与新进展
1. 深度学习与可解释性需求
在过去十年中,深度学习彻底改变了人工智能领域的研究,并且正在逐步改变我们的生活。如今,智能服务、智能设备和先进的分析工具越来越普及,应用也越来越广泛。例如谷歌翻译和亚马逊的Alexa,就是当今以深度学习为核心的人工智能强大能力的典型体现。
人工智能革命最初始于计算机视觉和自然语言处理领域,现在也在改变着许多其他应用领域,包括医学、信号处理和通信等。随着越来越多具备学习能力的方法超越了依赖手工特征的传统算法,这一趋势还将进一步加强。例如在图像压缩、物理层通信或基于心电图的心律失常分类等方面都有体现。
然而,由于常用的深度神经网络具有高度的复杂性,其可解释性问题变得至关重要。近年来,可解释人工智能(XAI)领域的兴起,反映了人们对于理解这些强大学习机器推理过程的需求日益增长。使机器学习模型具有可解释性的原因是多方面的:
- 增强信任和验证能力 :让用户更加信任模型的决策,同时便于对模型进行验证。
- 产生更深入的科学见解 :帮助科学家发现新的科学假设,深入了解自然过程。
- 满足法律要求 :在某些领域,法律可能要求模型的决策过程是可解释的。
- 调试模型和识别“聪明汉斯”预测器 :避免模型基于虚假相关性进行预测,例如在PASCAL VOC竞赛中,获胜的AI模型错误地依赖了虚假相关性进行分类。
尽管有这些解释方法,但从业者仍然常常避免使用黑盒模型,而更喜欢使用(广义)线性模型、基于规则的系统、决策树或随机森林等机
超级会员免费看
订阅专栏 解锁全文
766

被折叠的 条评论
为什么被折叠?



