上一篇博客讨论了SVM的损失函数,本篇博客主要来讨论softmax的损失函数以及两者之间的差别。
首先,softmax损失函数用数学公式可以表示为如下:
Li=−log(efyi∑jefj)
其中,fyi 表示经过线性矩阵后真实分类的值,∑jefj 表示某个样本所有分类值的和。
接下来,讨论3个问题:
1.当最初w趋近于0的时候,Loss为多少?
为类别数的倒数再取对数。可以以此来校验loss function是否书写正确
2.Loss的取值范围?
同SVM的loss一样,[0,+∞]
3.与SVM的loss function 有什么不同?
SVM的loss function 计算中,当损失类间距大于Δ 时,无论差别多大都没有影响了,也就是说,只有在分类边界附近的数据扰动才会有影响,才会对权重w有作用。
softmax中,无论类别间距差别多大,扰动都会对损失值有影响,只不过是影响大或者小的区别。
本文探讨了softmax损失函数的数学表达式及其与SVM损失函数的差异。softmax损失函数能够量化预测值与实际值间的偏差,并且对所有类别间距的变化都敏感。

被折叠的 条评论
为什么被折叠?



