生气就是拿别人的错误来惩罚自己

生气就是拿别人的错误来惩罚自己
在SVM Loss梯度推导中,惩罚只应用于错误类,主要与SVM的核心思想和目标有关。SVM的核心思想是对于每一个样本,计算其他不正确分类与正确分类之间的差距,如果差距大于某个阈值(通常为1),则说明需要进行进一步优化,要让这些差距的总和尽量小[^1]。 从损失函数的角度来看,SVM的目标是找到一个超平面,使得不同类别的样本之间有最大的间隔。在计算损失时,只关注错误分类的样本或者虽然分类正确但间隔不够大的样本。以多分类SVM为例,对于一个样本,其正确分类的得分与其他错误分类的得分之间需要满足一定的间隔条件。如果某个错误分类的得分与正确分类的得分之差加上一个安全间隔(通常为1)大于0,就会产生损失,需要对其进行惩罚。而对于正确分类的类别,不需要额外的惩罚,因为它已经符合了分类的要求。 以下是一个简单的Python代码示例,展示了SVM Loss的计算,其中可以看到惩罚只应用于错误类: ```python def svm_loss_native(W, X, y, reg): dW = np.zeros_like(W) num_classes = W.shape[1] num_train = X.shape[0] loss = 0.0 for i in range(num_train): scores = X[i].dot(W) correct_class_score = scores[y[i]] for j in range(num_classes): if j == y[i]: continue margin = scores[j] - correct_class_score + 1 if margin > 0: loss += margin dW[:, j] += X[i].T dW[:, y[i]] += -X[i].T loss /= num_train dW /= num_train loss += 0.5 * reg * np.sum(W * W) dW += reg * W return loss, dW ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值