1. 背景
一般选择gbdt回归树
2. 实现
gbdt = GradientBoostingRegressor()
gbdt.fit(X_train, y_train)
model_fea = gbdt.apply(X_train)
model_fea_enc = enc.transform(model_fea).toarray()
X_train_new = np.concatenate([X_train, model_fea_enc], axis=1)
类别型特征处理
from keras.utils import np_utils
y_test = np_utils.to_categorical(y_test, num_classes=10)
from sklearn import preprocessing
X_test = preprocessing.scale(X_test)
11
文章介绍了如何利用gbdt(GradientBoostingRegressor)进行回归预测,通过gbdt.fit()和gbdt.apply()处理数据,结合编码器enc对特征进行转换。接着,将处理后的特征与原始数据合并,用于模型训练。对于类别型特征,文章使用了keras的np_utils.to_categorical()进行处理,最后应用scikit-learn的preprocessing.scale()对测试集数据进行标准化。
1087

被折叠的 条评论
为什么被折叠?



