论文:“Multi-Dimensional Recurrent Neural Networks”
论文地址:https://arxiv.org/pdf/0705.2011.pdf
这篇博客是在本人阅读论文后的一些自己的理解记录,如有错误请大家多多指教。
首先给出的是前向传播和反向传播的图示:
在进行前向传播时,当前隐层接收到当前输入样本和在每个维度上之前一步的激活值(之前一步的隐层激活值)。
接下来直接给出前向传播和反向传播的伪代码:
我个人对于前向传播的理解如下:
①对于每个隐层单元都连接着所有的输入数据点(论文中有说H代表着隐层中单元个数的总和,由于输入样本数据点在进入隐层的通道上有乘