机器学习中的概念漂移、模型校准与可持续AI平台构建
1. 概念漂移与模型可解释性
在数据分析过程中,数据可能会发生漂移。例如,数据从0.84漂移到了0.80 。为了理解模型在概念漂移或校准过程中的可解释性,我们可以借助可解释机器学习方法。下面以加州住房数据集为例进行说明:
1. 导入必要的包 :
from xgboost import XGBRegressor
from cinnamon.drift import ModelDriftExplainer, AdversarialDriftExplainer
from sklearn import datasets
from sklearn.datasets import fetch_california_housing
from sklearn.datasets import fetch_openml
import pandas as pd
california = fetch_openml(name="house_prices", as_frame=True)
california_df = pd.DataFrame(california.data, columns=california.feature_names)
RANDOM_SEED = 2021
- 训练XGBoost回归模型 :
model = XGBRegressor(n_es
超级会员免费看
订阅专栏 解锁全文
54

被折叠的 条评论
为什么被折叠?



