1. one-hot 只关注最强分量
看一个简单例子:假设神经网络模型输出三分类结果 (z1,z2,z3)(z_1,z_2,z_3)(z1,z2,z3),已知某训练样本 xxx 的类别是 (1,0,0)(1,0,0)(1,0,0),模型参数调整前输出 (0.9,0.7,0.5))(0.9,0.7,0.5))(0.9,0.7,0.5)),参数调整后输出为 (0.9,0.6,0.6.)(0.9, 0.6, 0.6.)(0.9,0.6,0.6.).。我们看一下二者的损失函数:
Loss(w1)=∣0.9−1∣+∣0.7−0∣+∣0.3−0∣=1.1(1)\tag1 Loss(w_1) = |0.9-1|+|0.7-0|+|0.3-0|=1.1 Loss(w1)=∣0.9−1∣+∣0.7−0∣+∣0.3−0∣=1.1(1)
Loss(w2)=∣0.9−1∣+∣0.5−0∣+∣0.5−0∣=1.1(2)\tag2 Loss(w_2) = |0.9-1|+|0.5-0|+|0.5-0|=1.1

本文探讨了在神经网络中使用one-hot编码时的问题,包括如何通过去除sigmoid函数和应用softmax逻辑回归来改善最大值与其他值之间的差距,从而优化one-hot输出。
最低0.47元/天 解锁文章
1138

被折叠的 条评论
为什么被折叠?



