提升模型性能与处理专业数据的技巧
在机器学习中,提升模型性能和处理专业数据是至关重要的环节。下面将介绍几种常见的提升模型性能的方法,以及处理专业数据的技巧。
提升模型性能的方法
- Bagging与Boosting方法比较
- 当kappa统计量低于0.30时,袋装支持向量机(bagged SVM)模型的性能似乎比袋装决策树模型差。而且,与袋装决策树模型相比,kappa统计量的标准差相当大,这表明在交叉验证的不同折(folds)中,模型性能差异显著。这种差异可能意味着通过增加集成模型的数量,性能可能会进一步提高。
- Boosting是另一种常见的基于集成的方法,它通过提升弱学习器的性能,使其达到强学习器的水平。与Bagging类似,Boosting也使用在重采样数据上训练的模型集合,并通过投票来确定最终预测结果。但两者有两个关键区别:一是Boosting中的重采样数据集是专门为生成互补学习器而构建的;二是Boosting根据每个学习器的过往表现为其投票赋予权重,表现更好的模型对集成的最终预测影响更大。
- AdaBoost算法
- AdaBoost(自适应提升)算法由Freund和Schapire在1997年提出。该算法基于生成弱学习器的思想,通过对经常误分类的示例给予更多关注(即赋予更多权重),迭代地学习更大部分难以分类的示例。
- 从无权重的数据集开始,第一个分类器尝试对结果进行建模。分类器正确预测的示例在后续分类器的训练数据集中出现的可能性较小,反之,难以分
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



