摘要:
继前面的gbdt,xgboost,这里是关于另外一个很有名的boosting算法,Adaboost,Ada是Adaptive的缩写(此外,有一种优化算法adagrad,自适应梯度下降也是用的adaptive缩写)。
同时由于网上对Adaboost的介绍的资料也很充足。在李航《统计学习方法》上面也有一个实际演算的例子。周志华《西瓜书》也对adaboost作了比较清晰的分析,所这里只是简单总结一下要点。
核心:
AdaBoost也是一类boosting的算法,既然是boosting算法所以核心也是符合这样一个训练过程:在训练第n个分类器时,会利用前n-1个分类器的结果。具体来说在Adaboost里面是通过前n-1个分类器的学习结果对第n个分类器即将学习的样本权重进行调整,最后预测的结果为将n个学习得到的分类器进行加权求和后经过符号函数的映射。
算法步骤:
输入:
1.训练集D=(x1,y1),(x1,y1)...(xm,ym)D=(x1,y1),(x1,y1)...(xm,ym)
2.基学习算法ΓΓ
3.迭代次数TT
过程:
1.初始化样本权重