聊聊机器学习中的损失函数

本文深入探讨了机器学习中的几种损失函数,包括Gold Standard Loss、Hinge Loss、Log Loss、Squared Loss和Exponential Loss。通过对比这些误差项的特性,如SVM的Hinge Loss适合解决间隔最大化问题,Log Loss常用于交叉熵误差,适用于概率预测。同时,文章也提到了正则项的重要作用,如L2正则项防止过拟合。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器学习算法一般都是对损失函数(Loss Function)求最优,大部分损失函数都是包含两项:损失误差项(loss term)以及正则项(regularization term):
J(w)=iL(mi(w))+λR(w)

损失误差项

常用的损失误差项有5种:

  1. Gold Standard
  2. Hinge:Svm
  3. log:logistic regression(cross entropy error)
  4. squared:linear regression
  5. Exponential:Boosting

Gold Standard Loss

Gold Standard又称0-1误差,其结果又称为犯错不犯错,用途比较广(比如PLA模型),其损失函数也是相当的简单:
y={ 0ifm01ifm0

Hinge Loss

Hinge的叫法来源于其损失函数的图形,为一个折线,通用函数方式为:
L(mi)=max(0,1mi(w))

Hinge可以解 间距最大化 问题,带有代表性的就是svm,最初的svm优化函数如下:
argminw,ζ12||w||2+Ciζist.yi

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值