一、boosting与adaBoost的区别:
boosting 是一种将 弱分类器转化为强分类器的方法统称,
而 adaboost是 其中的一种,采用了exponential loss function(指数损失函数),根据不同的loss function还可以有其他算法,例如:logitboost算法,gentleboost算法等
二、adaBoost算法
Adaboost是提升树(boosting tree),所谓“提升树”就是把“弱学习算法”提升(boost)为“强学习算法”(语自《统计学习方法》),而其中最具代表性的也就是Adaboost了,貌似Adaboost的结构还和Neural Network有几分神似......
弱分类器---识别错误率小于1/2 (即准确率仅比随机猜测略高的学习算法)
boosting 是一种将 弱分类器转化为强分类器的方法统称,
而 adaboost是 其中的一种,采用了exponential loss function(指数损失函数),根据不同的loss function还可以有其他算法,例如:logitboost算法,gentleboost算法等
二、adaBoost算法
Adaboost是提升树(boosting tree),所谓“提升树”就是把“弱学习算法”提升(boost)为“强学习算法”(语自《统计学习方法》),而其中最具代表性的也就是Adaboost了,貌似Adaboost的结构还和Neural Network有几分神似......
弱分类器---识别错误率小于1/2 (即准确率仅比随机猜测略高的学习算法)
强分类器---识别准确率很高并能在多项式时间内完成的学习算法,输出结果几乎接近完全正确的分类。