机器学习算法一般都是对损失函数(Loss Function)求最优,大部分损失函数都是包含两项:损失误差项(loss term)以及正则项(regularization term):
J(w)=∑iL(mi(w))+λR(w)
损失误差项
常用的损失误差项有5种:
Gold StandardHinge:Svmlog:logistic regression(cross entropy error)squared:linear regressionExponential:Boosting
Gold Standard Loss
Gold Standard又称0-1误差,其结果又称为犯错与不犯错,用途比较广(比如PLA模型),其损失函数也是相当的简单:
y={
0ifm≥01ifm≤0
Hinge Loss
Hinge的叫法来源于其损失函数的图形,为一个折线,通用函数方式为:
L(mi)=max(0,1−mi(w))
Hinge可以解 间距最大化 问题,带有代表性的就是svm,最初的svm优化函数如下:
argminw,ζ12||w||2+C∑iζist.∀yi

本文深入探讨了机器学习中的几种损失函数,包括Gold Standard Loss、Hinge Loss、Log Loss、Squared Loss和Exponential Loss。通过对比这些误差项的特性,如SVM的Hinge Loss适合解决间隔最大化问题,Log Loss常用于交叉熵误差,适用于概率预测。同时,文章也提到了正则项的重要作用,如L2正则项防止过拟合。
最低0.47元/天 解锁文章
920

被折叠的 条评论
为什么被折叠?



