# init:参数
criterion:特征选择方法,包含信息熵、gini;
splitter:选择特征的方式,best:所有特征中最好的;random:部分随机特征中选择最好的;
max_depth:树的最大深度,超过的将会剪枝;
min_samples_split:分裂最小样本个数,不满足条件不进行分枝;
min_samples_leaf:分裂后的最小样本个数,小于的则进行剪枝;
min_weight_fraction_leaf:叶子节点全部样本权重和的最小值,若是小于这个值,则会被剪枝
max_features:划分数据集时考虑的最多特征值数量
random_state : 固定测试集和训练集划分
max_leaf_nodes:最大叶子节点数量;
min_impurity_decrease:节点划分最小不纯度(gini);
min_impurity_split:信息增益的阈值,小于阈值不进行分裂
class_weight:类别权重,dict:样本各类别权重;
presort:对数据进行排序,加速树的构建
# fit(self, X, y, sample_weight=None, check_input=True, X_idx_sorted=None):
- random_state = check_random_state(se