loss function总结

本文详细介绍了机器学习中常用的损失函数,包括合页损失函数(Hinge Loss)、L1与L2正则化以及Softmax损失函数。通过数学公式解释了这些函数如何帮助模型进行优化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

hinge loss:

Given an example (xi,yi)(xi,yi), where the xixi is the image and where yiyi is the integer label.
and using the shorthand for the scores vector: s=f(xi,Ws=f(xi,W)
the SVM loss has the form:
Li= j!=yimax(0,SjSyi+1)Li=∑ j!=yimax(0,Sj−Syi+1) ,其中SyiSyi代表正确分类的预测值
也就是说损失函数的定义,是想要正确分类的分数远比其他类别的分数高。

正则化:

L1 正则化:J(θ)=[yθ(x)y]2+[|θ1|+|θ2|+...]J(θ)=[yθ(x)−y]2+[|θ1|+|θ2|+...]
L2 正则化:J(θ)=[yθ(x)y]2+[θ21+θ22+...]J(θ)=[yθ(x)−y]2+[θ12+θ22+...]
西瓜书252-253页有介绍,L1范数有利于得到稀疏解,求到的权值会有更少的非零分量。

softmax loss:

多项逻辑回归损失

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值