
神经网络
NLP_Song
这个作者很懒,什么都没留下…
展开
-
dynamic_rnn的参数time_major
outputs,states = tf.nn.dynamic_rnn(lstm_cell,X_in,initial_state=_init_state,time_major=False)lstm_cell 是定义的隐藏层的cell, X_in是输入的训练数据(128batch,28steps,128hidden)其中time_major是说的时间点28steps是否位于X_in中第一个维度原创 2017-09-25 14:24:53 · 2677 阅读 · 0 评论 -
神经网络中优化器的作用
一句话,用来更新和计算影响模型训练和模型输出的网络参数,使其逼近或达到最优值,从而最小化(或最大化)损失函数E(x)原创 2017-09-21 09:57:28 · 13966 阅读 · 4 评论 -
简述梯度下降法在神经网络中的作用
在已经熟悉神经网络的相关知识的前提下:使用激活函数以后,除了能将输入信号转换为输出信号以后,还能回传损失函数中的误差,可以使用梯度下降更新权重值,通过计算误差函数E相对于权重参数W的梯度,在损失函数梯度的相反方向上更新权重参数原创 2017-09-21 10:35:27 · 3963 阅读 · 0 评论 -
学习率
学习率越大,模型收敛的越快速,在模型的训练后期,可以适当的将优化器中的学习率慢慢调小原创 2017-09-21 11:21:53 · 717 阅读 · 0 评论 -
卷积神经网络
CNN通过感受野以及权值共享减少了神经网络需要训练的参数个数原创 2017-09-21 11:44:48 · 191 阅读 · 0 评论 -
tensorflow常用函数简述
tf.matmul :矩阵相乘原创 2017-09-25 14:03:42 · 367 阅读 · 0 评论