可解释人工智能系统的维度与人类感知视角
1. 可解释人工智能中的解释类型
在可解释人工智能受到广泛关注之前,解释在人工智能系统的背景下就已经被研究了。解释主要分为两类:
- 内部解释 :系统为辅助自身推理而形成的解释。在人工智能系统中,内部解释可用于引导搜索(如基于解释或依赖导向的回溯),或聚焦学习。基于解释的学习旨在使系统的学习元素专注于与当前决策相关的场景部分,从而提供特征相关性评估。虽然基于解释的搜索和学习大多在显式符号模型的背景下进行,但自我解释对于学习自身表示的系统也很有用。
- 外部解释 :人工智能系统向其他自动化代理/人工智能系统(如在自主和多代理系统研究中)或人类代理提供的解释。当接收方是人类时,诸如认知负荷和解析解释的推理能力等问题起着重要作用;而对于自动化代理,这些问题的影响则较小。例如,为决策提供千兆位来源信息以证明其最优性的证书和证明,对自动化代理可能有效,但对人类代理则不太适用。历史上,向人类代理提供的外部解释在人工智能系统部署时就已被考虑,在专家系统中有着丰富的解释传统。解释的形式取决于人类所扮演的角色(调试者与普通观察者)以及任务是显式知识任务还是隐性知识任务。
2. 可解释人工智能的研究领域
可解释人工智能系统的工作可以从多个维度进行分类:
- 需要解释的是单一决策(如分类)任务还是一系列决策导致的行为。
- 任务是由显式(可表达的)知识引导还是隐性任务。
- 人类与人工智能代理之间的交互是一次性的还是迭代/长期的。
基于这些维度,可以识别出几个专注于可解释人工智能系统的研究领域:
|研究领
超级会员免费看
订阅专栏 解锁全文
14万+

被折叠的 条评论
为什么被折叠?



