情况a所得结果是实验手册中神经网络的多分类成本函数;情况b所得结果是nndl第62页推导出的Softmax多分类风险函数;两者略有不同,暂时想不明白

22/3/22更:
今天听老师的课明白了:情况a)中每个末层神经元都是对应一个二分类器,代价函数是K个二分类器交叉熵损失函数的和;b)中对应只有一个K分类器,其损失函数为单个K分类器的交叉熵损失函数。
神经网络多分类损失函数理解
本文探讨了两种不同的多分类损失函数:一种是实验手册中的神经网络多分类成本函数,它将K个二分类器的交叉熵损失相加;另一种是Softmax多分类风险函数,它基于单个K分类器的交叉熵损失。通过对比,作者揭示了它们之间的差异,并解释了各自的意义。
情况a所得结果是实验手册中神经网络的多分类成本函数;情况b所得结果是nndl第62页推导出的Softmax多分类风险函数;两者略有不同,暂时想不明白

22/3/22更:
今天听老师的课明白了:情况a)中每个末层神经元都是对应一个二分类器,代价函数是K个二分类器交叉熵损失函数的和;b)中对应只有一个K分类器,其损失函数为单个K分类器的交叉熵损失函数。

被折叠的 条评论
为什么被折叠?