def add_layer(inputs, in_size, out_size, activation_function=None): # add one more layer and return the output of this layer Weights = tf.Variable(tf.random_normal([in_size, out_size])) biases = tf.Variable(tf.zeros([1, out_size]) + 0.1) Wx_plus_b = tf.matmul(inputs, Weights) + biases if activation_function is None: outputs = Wx_plus_b else: outputs = activation_function(Wx_plus_b) return outputs
tf.layers.dense()
本文详细介绍了在TensorFlow中如何自定义神经网络层,包括权重和偏置的初始化,以及激活函数的应用。同时,对比了tf.layers.dense()函数的使用方法,为读者提供了深入理解神经网络构建的基础。
1740

被折叠的 条评论
为什么被折叠?



