from dtreeviz.trees import dtreeviz
viz = dtreeviz(clf,
iris['data'],
iris['target'],
target_name='',
feature_names=np.array(iris['feature_names']),
class_names={0:'setosa',1:'versicolor',2:'virginica'},scale=2)
viz
#用交叉验证选特征
from sklearn.svm import SVC
from sklearn.feature_selection import RFECV
# Instantiate RFECV visualizer with a random forest regressor
rfecv = RFECV(RandomForestRegressor())
rfecv.fit(X, y) # Fit the data to the visualizer
print("Optimal number of features : %d" % rfecv.n_features_)
# Plot number of features VS. cross-validation scores
plt.figure()
plt.xlabel("Number of features selected")
plt.ylabel("Cross validation score (nb of correct classifications)")
plt.plot(range(1, len(rfecv.grid_scores_) + 1), rfecv.grid_scores_)
plt.show()
决策树的可视化及通过决策树筛选变量
最新推荐文章于 2024-07-25 16:47:55 发布
本文介绍了使用Python进行特征选择的方法,并通过可视化展示特征数量与交叉验证得分的关系,帮助理解特征选择的重要性。
部署运行你感兴趣的模型镜像
您可能感兴趣的与本文相关的镜像
Python3.8
Conda
Python
Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本
1万+

被折叠的 条评论
为什么被折叠?



