医疗决策支持系统中的解释机制
1. 引言
在实际项目中,若对机器学习(ML)模型或数据处理流程缺乏合理理解,项目很难取得成功。欧盟在新的通用数据保护条例中,甚至纳入了解释决策的要求,以规范机器学习的应用。
模型的解释方法可依据以下标准进行分类:
- 内部解释与事后解释 :内部可解释性指使用本身具有可解释性的ML模型,如线性或树模型;而更复杂的模型,如集成模型或深度学习(DL)模型,虽性能更佳,但常被视为黑盒模型,缺乏解释能力,因此在选择和训练黑盒模型时需要事后解释。
- 与模型无关的解释和基于模型的解释 :特定模型的解释工具仅依赖于每个模型的能力和功能,而与模型无关的工具可用于任何ML模型。
- 局部解释与全局解释 :若方法用于解释单个决策,则为局部解释;若用于解释整个模型的行为,则为全局解释。
2. 机器学习解释模型
2.1 可解释模型
部分ML模型的结论相对容易解释,这些模型通常具有以下特征:
- 线性 :对象与目标之间的关系呈线性建模。
- 单调性 :函数与目标结果之间的关系始终保持一个恒定方向。
- 交互性 :能够向模型中添加非线性交互元素。
以下是一些可解释ML模型的示例:
| 算法 | 线性 | 单调 | 交互 |
| — | — | — | — |
| 线性模型 | 是 | 是 | 否
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



