可解释人工智能(XAI):原理、方法与应用
1. XAI与认知科学
如何向人类解释可解释人工智能(XAI)已得到广泛研究。这涉及到人们如何构建和传达解释,以及他们对认知偏差和社会期望的运用。然而,目前几乎没有证据表明XAI研究仅仅基于研究人员对有效解释的直觉和判断。尽管理解人们如何运用和理解解释很重要,但社会科学的研究框架很少被使用或参考。熟悉AI模型的创建者和专家并非评估非专家所需解释程度的最佳人选。
2. 解释及其特征
XAI社区也研究了XAI系统的基本方面和解释。值得信赖的匿名系统应具备以下能力:
- 利用可解释性要求生成判断。
- 向人类阐明选择。
在解释概念时,能够解释和解释匿名系统搜索解决方案的结果至关重要。答案越易懂越好。例如,若两个不同答案大致相当,应选择更易解释的输出。为了向人们进一步解释其决策,匿名系统应提供解释。
Miller确定了人类提供和接受的解释中普遍存在的四个基本概念:
- 对比 :人们常想知道某一事件为何发生。
- 解释选择的偏见 :人们很少期望有详细的原因列表,通常选择一两个因素。
- 无需提供概率 :在解释中,原因比概率更有效。
- 社会学解释 :是解释者相对于被解释者观点的意见。
不同类型的解释效果取决于受众。人们更倾向于基于被解释者的立场提供解释。解释还应具备以下特点:
- 可理解性 :取决于目标受众和所解决问题的性质,用
超级会员免费看
订阅专栏 解锁全文
97

被折叠的 条评论
为什么被折叠?



