可解释人工智能(XAI):原理、方法与应用
1. 可解释人工智能概述
当今的深度学习工具虽能产生可靠结果,但因其不透明性而难以理解。随着全球对可信人工智能需求的增加,人们试图在设计和实施过程中融入道德标准。可解释人工智能(XAI)作为可信人工智能的组成部分,试图深入探究人工智能系统决策的基本原理。它是一个新的研究领域,旨在使人工智能系统的行为能够被解释,输出结果能被人类理解。XAI 的主要目标是探索决策过程中涉及的逻辑,并概述系统的优缺点,这些信息可用于进一步改进。任何由 XAI 驱动的人工智能系统都能消除与系统输出相关的困惑,使其成为可信系统。
2. XAI 中的术语
为了更好地理解 XAI,需要对可解释性有一个共同的理解点。以下是 XAI 研究和公共领域中常用的术语及其描述:
| 术语 | 描述 |
| — | — |
| 可理解性(Intelligibility) | 指任何人类无需明确要求解释就能轻松理解模型内部工作原理的特性 |
| 可辩护性(Justifiability) | 通过理解人工智能系统的决策来支持其结果,但不一定总是能对该决策给出解释 |
| 可解释性(Interpretability) | 系统以易于理解的方式向人类展示其功能的能力,与可解释性密切相关 |
| 解释能力(Explainability) | 系统能够对其做出的决策提供解释的能力,涉及对系统内部工作的描述 |
| 透明度(Transparency) | 指系统具有自我解释的特性,无需外部干预即可实现可理解性 |
在 XAI 的这些特性中,可解释性(也称为可理解性)是一个重要特征。可解释性和透明度与这
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



