机器学习中的决策树与提升算法:原理、实践与优化
决策树的构建与应用
在机器学习中,决策树是一种常用的分类和回归工具。首先,我们需要对数据进行训练集和测试集的划分。使用 setTrainTestRatio() 函数可以指定训练数据的比例,例如设置为 90%(0.90)。默认情况下,划分数据时会对数据进行洗牌,如果不想进行洗牌,可以将 false 作为第二个参数传入。划分完成后,我们可以打印出训练样本和测试样本的数量。
数据准备好后,就可以创建 cv::ml::DTrees 对象进行训练。通过一系列的 set*() 方法对该对象进行配置,其中 setPriors() 方法可以传入一个值数组,用于设置错过有毒蘑菇和误将可食用蘑菇标记为有毒蘑菇的相对权重。由于字母“e”在字母表中排在“p”之前,所以在转换为 ASCII 码再转换为浮点数后,对应的数值也排在前面,因此代码中 1.0 在前,10.0 在后。
在实际应用中,训练好的决策树可以通过 save() 方法保存到磁盘,也可以使用 load() 方法从磁盘加载。以下是保存和加载名为 tree.xml 的树文件的代码示例:
// To save your trained classifier to disk:
dtree->save("tree.xml","MyTree");
// To load a trained cl
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



