原理
h∈{-1,1}
思想:弱学习器组合成强学习器(团队力量大于个人)
情况下很好;
情况下,比原来更糟;
1 选取特地分类器
DATA-------->h1 DATA+exaggeration of h1 error----->h2 DATA+exaggeration of h2 error----->h3
2 GET OUT THE VOTE
3 DESCISION TREEN STUMP
dim=the number of lines can put in *2
boosting可用于任何分类器
初始状态 不知道信息 均匀分配;夸大错误的权重 Σwi=1 保证是一个分布
4
计分多项式
集体中并非每个人都会被同等对待,专家在各自领域很精通
5 流程图:
6
1/2 计算方便
由分布函数的归一性 可以导出: 更新后的权重之和是更新前正确答案的缩放版本(1/2 即不会过度拟合)
Adaboost
弱分类器:只有一个分裂的决策树 数值优化:牛顿迭代 L2损失函数
加法模型,指数函数为损失函数,学习算法为前向分步
关于误差 :训练误差有界 测试误差随训练次数变化 公式看:T 越大 会过拟合 根据奥卡姆剃刀原理最简单的是对的 选择T小的 而实际是训练次数越多 模型越好---待研究!
Xgboost: