softmax_loss的真正名字应该是softmax cross entropy loss。因为softmax的定义是
f(zi)=softmax(zi)=ezi∑jezjf(z_i)=softmax(z_i)=\frac{e^{z_i}}{\sum_je^{z_j}}f(zi)=softmax(zi)=∑jezjezi, softmax loss的定义是
L=−1N∑i=0NLi=−1N∑i=0Nlogf(zi)L=-\frac{1}{N}\sum_{i=0}^NL_i=-\frac{1}{N}\sum_{i=0}^{N}logf(z_i)L=−N1∑i=0NLi=−N1∑i=0
softmax_loss梯度推导
最新推荐文章于 2025-06-11 10:36:24 发布