人工智能可解释性的深度剖析
1. 可解释性的核心问题
在当今的人工智能领域,可解释性成为了一个至关重要的议题。尽管人工神经网络(ANNs)在诸多行业展现出强大的自动化能力,如自动驾驶、人脸识别、手写识别等,但它们更像是一种人工直觉,而非真正的智能。其背后的数学模型虽然架构精妙,但却难以理解和解释,这就引出了所谓的“黑盒问题”。
在将学习模型应用于现实世界之前,解决这个“黑盒问题”是人工智能发展的关键。可解释人工智能(XAI)的出现,旨在为人工智能学习模型增添问责性、透明度、公平性和一致性。可解释性的目的在于弥合“获得解释的权利”和“被告知的权利”之间的差距。
1.1 可解释性的维度分类
可解释性方法可以从多个维度进行分类,如下表所示:
| 类型 | 描述 | 目标 |
| — | — | — |
| 设计 | 模型解释、预测解释、模型检查、白盒设计、黑盒模型(如NN、SVM、不可知黑盒、非线性模型、树集成) | 理解模型的工作原理和决策依据 |
| 数据 | 文本、图像、表格、波形、时间序列、其他(任意) | 适应不同类型的数据 |
| 解释器 | 归因、分解、示例、数学、扰动、规则、显著性、原型选择、对抗攻击、特征相关性 | 提供不同的解释方式 |
| 范围 | 全局、局部、实例级、异常示例 | 确定解释的范围和粒度 |
1.2 可解释性的潜在维度
可解释性的需求可以分布在三个潜在维度:数据驱动、任务驱动和模型驱动,具体如下:
- 数据驱动 :数据中的不确定性(认知或偶然)以及训练数据的随机性会影响可解释
超级会员免费看
订阅专栏 解锁全文
909

被折叠的 条评论
为什么被折叠?



