
深度学习
NLP_Song
这个作者很懒,什么都没留下…
展开
-
tensorflow高阶教程:tf.dynamic_rnn
引言 TensorFlow很容易上手,但是TensorFlow的很多trick却是提升TensorFlow心法的法门,之前说过TensorFlow的read心法,现在想说一说TensorFlow在RNN上的心法,简直好用到哭 【以下实验均是基于TensorFlow1.0】 简要介绍tensorflow的RNN 其实在前面多篇都已经提到了TensorFlow的RNN,也在我之前的文转载 2017-10-19 11:48:56 · 349 阅读 · 0 评论 -
优化器的使用
使用tf.train.Optimizer.minimize 与 使用tf.train.Optimizer.compute_gradients结合tf.train.Optimizer.apply_gradients是一样的效果 具体详见点击打开链接原创 2017-10-11 14:52:45 · 404 阅读 · 0 评论 -
tensorflow中的矩阵生成(数据初始化)与变换函数
点击打开链接转载 2017-10-13 17:06:04 · 3083 阅读 · 0 评论 -
tensorflow的共享变量的联系与区别
点击打开链接 可以参照上面的网页进行学习转载 2017-10-23 15:34:57 · 221 阅读 · 0 评论 -
正则化
L2正则化,是让权重衰减,从而变小。在权重小的情况下,数据x随机的变化不会对神经网络的模型造成太大的影响 L1正则化,是让权重w靠近0,从而降低网络复杂度原创 2017-10-16 14:00:25 · 211 阅读 · 0 评论 -
交叉熵损失函数好文推荐
点击打开链接 点击打开链接原创 2017-10-25 15:47:57 · 1100 阅读 · 0 评论 -
dropout_keep_prob
测试时 dropout_keep_prob一般都设置为1,也就是保留全部结果 也就是说 dropout_keep_prob只在训练的时候有用原创 2017-10-17 10:52:45 · 13220 阅读 · 3 评论 -
tf.placeholder()
最基本的用法是提供一个占位符,具体可以参考点击打开链接原创 2017-10-17 11:35:05 · 420 阅读 · 0 评论 -
LSTM循环神经网络中的超长序列问题
点击打开链接转载 2017-11-21 16:25:05 · 1946 阅读 · 1 评论