SMO叫做序列最小优化算法,其思想就是,每次只优化一个参数,固定住其他参数,也就是每次只求一个优化参数的极值,
然后将其他参数先固定住,这样一步步求解出所有的参数.
可以看到只要我们把所有的lamada求解出来了,那么,对应的w和b参数,就迎刃而解了.
可以看到在d公式中,上一节我们推导出来的d公式,可以看到,这个公式中,有lamada 1 ...lamada i 很多lamada对吧.
但是,因为我们有个约束条件 可以看到lamada i yi = 0
SMO叫做序列最小优化算法,其思想就是,每次只优化一个参数,固定住其他参数,也就是每次只求一个优化参数的极值,
然后将其他参数先固定住,这样一步步求解出所有的参数.
可以看到只要我们把所有的lamada求解出来了,那么,对应的w和b参数,就迎刃而解了.
可以看到在d公式中,上一节我们推导出来的d公式,可以看到,这个公式中,有lamada 1 ...lamada i 很多lamada对吧.
但是,因为我们有个约束条件 可以看到lamada i yi = 0