最近在跟随莫烦哥进行tensorflow的学习,在学习dropout那一节的时候。有一个问题卡了很长时间,就是下图:

一
发现这个问题以后,我百思不得其解,测试了很多细节,终于发现了bug,同时也有一些其他新的发现。
在定义神经网络层add_layer()的时候,我定义的数据是一列为一个样本,但是后来在测试sotfmax函数的过程中,我发现tf.nn.softmax(x)中,默认是按照行的方向进行计算。查阅资料发现
tf.nn.softmax(
logits,
axis=None,
name=None,
dim=None
)
但是在我pycharm的这个函数中,只有logits和name这两个标识。因此在以前实验时,我设置了一个标志位,以区分softmax和其他激活函数(事实发现,这里不用区分,因为其他激活函数起作用只与当前神经元的值有关,只有softmax是与其他神经元也有关)。而且标志位默认为False,也就是说在激活函数之前不需要对输入进行转置。由于此次分类问题中需要用到softmax,而博主恰好忽略了这一点,因此就导致了前面出现的问题。
def add_layer(input,in_size,out_size,

本文深入探讨了在使用TensorFlow进行神经网络建模时遇到的Softmax函数轴向问题,以及如何通过调整函数参数解决该问题。同时,文章还分享了在模型中应用Dropout技术以缓解过拟合现象的经验。
最低0.47元/天 解锁文章
9276

被折叠的 条评论
为什么被折叠?



