可信AI的关键技术路线解析
1. 可解释AI
1.1 可解释AI的经典定义
可解释AI(起源于IBM)是一套能让人类理解并信任机器学习算法结果与输出的流程和方法。它用于描述AI模型的预期影响、潜在偏差,以及模型在AI驱动决策中的准确性、公平性、透明度和结果。在组织将AI模型投入生产时,可解释AI对于建立信任和信心至关重要。其目标是让人类能够解读模型输出,理解模型在决策过程中的依据(如何决策、为何决策以及做出了什么决策),从而在人类和AI之间建立信任关系,与机器学习中的“黑箱”概念形成鲜明对比。
| 类型 | 输入 | AI服务系统 | 输出 | 特点 |
|---|---|---|---|---|
| 黑箱AI | 数据 | AI服务系统 | 决策、令人困惑的结果 | 用户难以理解决策原因和结果好坏 |
| 可解释AI | 数据 | AI服务系统 | 透明且易懂的结果 | 用户知道决策原因和预期结果 |
1.2 可解释AI的分类和原理
可解释AI有多种分类方式,常见的包括原生解释和事后解释。事后解释又可分为全局解释和局部解释,还可进一步分为特定模型解释和通
可信AI关键技术解析
超级会员免费看
订阅专栏 解锁全文
1632

被折叠的 条评论
为什么被折叠?



