网上很多帖子都说是ground truth 的label有问题,然而再三检查都没问题。
还有很多帖子说是learning rate有问题,降到了0.0000000001还是不行。
其实,是小错误了,产生了意想不到的问题。
下面算loss的是对的
loss = tf.nn.softmax_cross_entropy_with_logits_v2(logits = self.outputs,labels = self.placeholders['labels'])
这个是错的,loss = tf.nn.softmax_cross_entropy_with_logits_v2(self.outputs, self.placeholders['labels'])
这是因为疏忽,把gth-label和预测的结果搞反了。
只要调过来,就没问题。
1554

被折叠的 条评论
为什么被折叠?



