20、迈向可解释机器学习:基于特征交互树构建多项式模型

迈向可解释机器学习:基于特征交互树构建多项式模型

1. 引言

人工智能在众多决策流程中得到广泛应用,从贷款申请审批到预测性警务,这使得机器学习模型的可解释性变得愈发重要。许多模型被视为黑盒,其内部逻辑难以被人类理解和审查。在实际应用中,黑盒模型已经出现了诸多严重失误。例如,宾夕法尼亚儿童福利筛查工具会过度标记黑人儿童进行“强制”忽视调查;亚马逊的人工智能招聘系统因对女性候选人存在歧视而被终止。因此,解释“黑盒”的困难阻碍了机器学习在许多现实世界应用中的采用,尤其是在高风险决策方面。

在可解释人工智能(XAI)领域,已经取得了许多进展。事后可解释性是一种流行的方法,它在模型训练完成后对其预测进行解释,基于简化解释的概念,也被称为代理模型。像LIME这样的工具会通过输入数据扰动将原始模型简化为透明模型。特征相关性解释则通过分析每个输入特征对目标的贡献来描述数据实例。然而,Rudin认为事后可解释性往往不可靠且具有误导性,例如CNN分类器的注意力图只是计算结果,并非真正的解释。因此,在高风险决策中必须使用可解释模型,因为它们能提供与内部模型计算一致的解释,且更易于人类理解。但可解释模型在处理复杂数据时通常表现不佳。

为解决这些问题,本文提出了PolyFIT,一种基于特征交互树的多项式模型构建方法,旨在:
1. 缩小黑盒模型和可解释模型之间的差距。
2. 实验验证模型性能和可解释性之间的权衡关系。

2. 相关工作
2.1 SHAP和成对交互值

SHAP通过博弈论方法,探索每个输入特征对机器学习模型输出预测的加性贡献,为每个特征生成Shapley值。SHAP成对交互值是Shapley交互指数的扩展,其结

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值