可解释人工智能框架对比及激光雷达在自动驾驶中的应用
可解释人工智能(XAI)相关研究
随着机器学习模型复杂度的增加,它们开始表现得像“黑匣子”,其输出结果越来越难以解释。可解释人工智能(XAI)应运而生,它指的是在人工智能应用中,使解决方案的结果能够被人类理解的方法和技术。XAI 与 AI 中的“黑匣子”概念互补,它旨在满足社会对解释的需求,但目前尚无相关法律权利保障。
本次研究选择了三个用于解释机器学习模型的框架:LIME、SHAP 和 ELI5。研究使用了一个关于葡萄牙银行营销活动中客户是否购买产品的数据集,训练了四种机器学习模型,分别是逻辑回归、决策树、随机森林和 XGBoost,用于二分类问题。
- 逻辑回归 :利用概率阈值进行分类。
- 决策树和随机森林 :基于树的模型,通过分层决策得出结果。
- XGBoost :一个优化的机器学习库,在梯度提升框架下实现机器学习算法,并提供并行树提升。
训练和验证这些模型后,随机选择一个实例,使用 ELI5、LIME 和 SHAP 对其输出进行解释。
| 模型 | 精确率(Precision) | 召回率(Recall) | F1 分数(f1 - score) | 支持样本数(Support) |
|---|---|---|---|---|
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



