Recurrent Neural Network(RNN) - 循环神经网络(part 2)
1 训练 RNN
1.1 定义 Loss

- 如上图中,每一个单词对应一个 Slot,将句子按顺序丢进 Network 中,产生一个输出 y,将每个 y 与预期的正确输出做 cross entropy,然后累加起来,就是最终的 Loss。(注意,顺序不能打乱)。
1.2 学习(learning)
定义完 Loss funtion 以后,就可以开始训练了,这次我们用的仍然是 Backpropagation ,但是做了一点改动,所以就叫做 Backpropagetion through time(BPTT),因为我们输入的是一个时间序列,所以 BPTT 考虑了时间的影响。
好的,那这个所谓的 BPTT 是怎么工作的呢?emmmm……….我也不知道,因为老师说这个不讲。反正就只要知道 RNN 是可以用 Gradient Descent 来训练就行了。

言归正传,我们开始去让 RNN 去学习,但

本文介绍了RNN在训练过程中的Loss定义、Backpropagation Through Time (BPTT)原理以及训练过程中可能出现的Loss波动问题。通过分析错误表面的陡峭性导致的梯度爆炸,提出clipping作为解决方法。此外,文章还提及LSTM如何通过其结构有效缓解梯度消失问题。
最低0.47元/天 解锁文章
1137

被折叠的 条评论
为什么被折叠?



