train.m
第一步,划分根节点root
对输入的数据(特征集,分类标签,权重)用CART算法进行划分,得到左右子节点。
传入的node已经设定最大层数为3,所以很快就结束,没有CART通常包含的pruning, optimal selection 及 cross-validation 等步骤
注意:这个Matlab包里所有的传入node都只是用来传递一个空的tree_node节点,相当于构造函数,不会修改也不会返回
max_split = node.max_split;
[left right spit_error] = do_learn_nu(node, dataset, labels, weights);
nodes = {left, right};
这里其实不是很明白:看起来应该分别计算左右节点的错误率,但left_pos不应该是true positive rate 吗?为什么和left_neg在一起取小??
left_pos = sum((calc_output(left , dataset) == labels) .* weights);
left_neg = sum((calc_output(left , dataset) == -labels) .* weights);
right_pos = sum((calc_output(right, dataset) == labels) .* weights);
right_neg = sum((calc_output(right, dataset) == -labels) .* weights);
errors = [min(left_pos, left_neg), min(right_pos, right_neg)];
总而言之,这个errors是衡量划分左右节点的标准。从最大的开始遍历
[errors, IDX] = sort(errors);
errors = flipdim(errors,2);
IDX = flipdim(IDX,2);
nodes = nodes(IDX);
分叉时用到的临时变量
splits = [];
split_errors = [];
deltas = [];
从errors值最大的叶节点开始遍历
用同样的方法对该node划分,但是只使用属于该节点的数据
重复上面找最大errors的步骤,对同一层的所有节点做同样的操作
比较所有节点的划分结果,最佳分叉是误差值最大的(即减少该节点数据不纯度增幅最大的那种划分)
英文也有点绕:maximises the decrease in node impurity
最后用该节点的左右子节点代替该节点,如果还没到max_split,进入下一轮
for i = 2 : max_split
for j = 1 : length(errors)
if(length(deltas) >= j)
continue;
end
max_node = nodes{j};
max_node_out = calc_output(max_node, dataset);
mask = find(max_node_out == 1);
[left right spit_error] = do_learn_nu(node, dataset(:,mask), labels(mask), weights(mask), max_node);
left_pos = sum((calc_output(left , dataset) == labels) .* weights);
left_neg = sum((calc_output(left , dataset) == -labels) .* weights);
right_pos = sum((calc_output(right, dataset) == labels) .* weights);
right_neg = sum((calc_output(right, dataset) == -labels) .* weights);
splits{end+1} = left;
splits{end+1} = right;
if( (right_pos + right_neg) == 0 || (left_pos + left_neg) == 0)
deltas(end+1) = 0;
else
deltas(end+1) = errors(j) - spit_error;
end
split_errors(end+1) = min(left_pos, left_neg);
split_errors(end+1) = min(right_pos, right_neg);
end
if(max(deltas) == 0)
return;
end
best_split = find(deltas == max(deltas));
best_split = best_split(1);
cut_vec = [1 : (best_split-1) (best_split + 1) : length(errors)];
nodes = nodes(cut_vec);
errors = errors(cut_vec);
deltas = deltas(cut_vec);
nodes{end+1} = splits{2 * best_split - 1};
nodes{end+1} = splits{2 * best_split};
errors(end+1) = split_errors(2 * best_split - 1);
errors(end+1) = split_errors(2 * best_split);
cut_vec = [1 : 2 * (best_split-1) 2 * (best_split)+1 : length(split_errors)];
split_errors = split_errors(cut_vec);
splits = splits(cut_vec);
end
这样的话,根节点A第一次划分,nodes就有两个节点{B,C};
其中一个(假设是C)进行第二次划分得到{D,E},这时nodes有{B,D,E}三个节点
再来一次到max_split的时候nodes正好返回四个节点的CART树