可解释性机器学习:单调约束与模型调优
1. 模型调优与正则化
模型通常有众多超参数,可用于提升执行速度、增强预测性能以及减少过拟合。其中,引入正则化是减少过拟合的有效方法之一。正则化通过施加惩罚或限制,使模型学习输入的稀疏表示,从而降低复杂度。正则化后的模型泛化能力更强,且由于所需的特征及其交互更少,模型更易于解释。我们将重点关注那些通过控制过拟合来提高可解释性的超参数,同时也会在一定程度上探讨与类别不平衡相关的超参数对偏差缓解的作用。
2. 影响可解释性的模型属性
模型的可解释性受非线性、交互性和非单调性这三个属性的影响。模型可能会学习到一些虚假和违反直觉的非线性和交互性,可通过特征工程来避免。而对于单调性,我们可以使用单调约束来加以控制。单调约束类似于特征工程在模型层面的对应,正则化则类似于特征选择方法在模型层面的对应。
3. 主要研究内容
我们将围绕以下三个主要方面展开研究:
- 利用特征工程设置约束
- 为可解释性调整模型
- 实施模型约束
4. 技术要求
本研究使用的库包括 mldatasets 、 pandas 、 numpy 、 sklearn 、 xgboost 、 lightgbm 、 catboost 、 tensorflow 、 bayes_opt 、 ten
超级会员免费看
订阅专栏 解锁全文
3万+

被折叠的 条评论
为什么被折叠?



