Adaboost 原理
Adaboost 全称为 adaptive boost, 意为自适应的提升方法,作用是能够通过分布不同权重的方式将多个弱分类器提升为一个强分类器,不同的弱分类器解决不同的分类问题,多个弱分类器通过加权组合得到一个强分类器。详细公式过程如下:
- 给定 N 个样本的特征向量 (x1,.....) (x2.....) ...(xN,....)(x_1, .....) \, (x_2.....) \, ...(x_N, ....)(x1,.....)(x2.....)...(xN,....), 每一个样本都有对应的标签 y1, y2,...yN{y_1, \, y_2, ... y_N}y1,y2,...yN 与之相对。
- 初始化每个样本权重 D1(i)=(w1,.....wN)D_1(i) = (w_1,.....w_N)D1(i)=(w1,.....wN) ,初始权重值都为1/N1/N1/N。
- 循环迭代 TTT 次,每一次迭代执行如下步骤:
- 找出分类误差最小的弱分类器 hjh_jhj , 计算公式为:$h_j = arg, min , \theta $,其中 θ=∑1NDi∗(hj(xi...)≠ yi)\theta = \sum_1^N D_i * (h_j(x_i...) \neq \,y_i)θ