
coding with tensorflow
文章平均质量分 90
加勒比海鲜王
机器学习探索者,欢迎关注简书账号——加勒比海鲜王
展开
-
简单的tensorflow:1_logistic regression
关于softmax_cross_entropy_with_logits与sigmoid_cross_entropy_with_logitsloss = -tf.reduce_mean(tf_Y*tf.log(tf.clip_by_value(pred,1e-11,1.0)))# 也可以直接使用tensorflow的版本:# loss = tf.reduce_mean(tf.nn.sof...原创 2017-10-10 11:32:39 · 698 阅读 · 0 评论 -
简单的tensorflow:2_两层网络and more
源码来自: https://github.com/nlintz/TensorFlow-Tutorials 感谢作者无私提供初学者可以先看懂代码,然后一定要独立实现一次。 已经看过上一篇文章简单的tensorflow:1_logistic regression 的同学,会发现这次的代码仅仅改动了一点点,就是model函数由一层变成了两层。其他部分的讲解见上一篇文章。def model(原创 2017-10-10 14:21:55 · 527 阅读 · 0 评论 -
tf.contrib.layers.xavier_initializer
xavier_initializer( uniform=True, seed=None, dtype=tf.float32)该函数返回一个用于初始化权重的初始化程序 “Xavier” 。这个初始化器是用来保持每一层的梯度大小都差不多相同。参数:uniform: 使用uniform或者normal分布来随机初始化。 seed: 可以认为是用来生成随机数的seed dtyp原创 2017-10-26 15:19:22 · 40349 阅读 · 5 评论 -
tensorflow在训练过程中逐步减少学习率
# 声明学习率为不可训练learning_rate = tf.Variable(float(learning_rate), trainable=False, dtype=tf.float32)# 学习率递减操作,这里表示每次学习率变成上一次的0.9倍learning_rate_decay_op = learning_rate.assign(learning_rate * 0.9)#训练过程中根原创 2017-12-11 17:18:12 · 3866 阅读 · 0 评论