https://zhuanlan.zhihu.com/p/28036014
关于SVM有一句话是说距离超平面较远的点直接为0,这个意思是说分类正确的为0;
关于LR有一句话是说减小距离较远的点的权重,是指(1-yi)和yi这个式子,距离较远则表示分类越正确,1-yi和yi越接近0;
总之:lr 采用的交叉熵 loss 和 svm 采用的 hinge loss function 思想都是增加对分类影响较大点的权重,减少那些与分类相关不大点的权重
SVM与LR权重调整解析
https://zhuanlan.zhihu.com/p/28036014
关于SVM有一句话是说距离超平面较远的点直接为0,这个意思是说分类正确的为0;
关于LR有一句话是说减小距离较远的点的权重,是指(1-yi)和yi这个式子,距离较远则表示分类越正确,1-yi和yi越接近0;
总之:lr 采用的交叉熵 loss 和 svm 采用的 hinge loss function 思想都是增加对分类影响较大点的权重,减少那些与分类相关不大点的权重
2412
2115
2047

被折叠的 条评论
为什么被折叠?