可解释机器学习 Task01-导论
一、什么是可解释机器学习(可解释人工智能)
传统人工智能的痛点
目前的人工智能与机器学习就像是一个黑盒子,我们目前大部分能够做到的就是调包、输入数据、调参,非常的难以作为。

可解释机器学习
可解释机器学习就是研究如何打开人工智能的黑箱子,洞悉人工智能的脑回路和注意力,进而解释它、了解它、改进它、信赖它,知其然也知其所以然。
二、为什么要学习可解释机器学习
- 研究AI的脑回路,就是研究AI的本质
- 研究AI的脑回路,就是研究AI的本质
- 可解释分析是机器学习和数据挖掘的通用研究方法
- 和所有AI方向交叉融合:数据挖掘、计算机视觉、自然语言处理、强化学习、知识图谱、联邦学习。
- 包括但不限于:大模型、弱监督、缺陷异常检测、细粒度分类、决策AI和强化学习、图神经网络、AI纠偏、AI4Science、MachineTeaching、对抗样本、可信计算、联邦学习。
从 MachineLearning 到 MachineTeaching
人工智能的算法是通过大量数据的训练完成的,可以把从海量数据中提取到的微观的、人眼不易提取的特征交给人类,辅助人类学习(AI专家)。
例子
- 腾讯绝艺围棋AI指导棋——以指导为目的与人类选手进行围棋博弈,其中右上角的非常破空手段值得人类学习。

- 百度制作的富春山居图的AI补全:



- 人工智能帮助人类理解CT病灶所在区域

三、本身可解释性好的机器学习算法
KNN分类

逻辑回归

决策树

特征重要性

四、深度学习的可解释性很差
以卷积神经网络为例

本文介绍了可解释机器学习的概念及其重要性,对比了传统人工智能的黑盒特性,强调了洞悉AI内部工作原理的价值。文章列举了几种具备良好可解释性的经典机器学习算法,并探讨了深度学习模型尤其是卷积神经网络在可解释性方面的挑战。
1266

被折叠的 条评论
为什么被折叠?



