循环神经网络与GPU计算:原理、配置与实践
1. 循环神经网络概述
循环神经网络(RNNs)是一类神经网络,其单元之间的连接形成直接循环,使其能够处理时间和序列数据。长短期记忆网络(LSTM)是RNN的一种改进架构,它通过引入显式记忆来处理长期依赖问题。LSTM网络配备了特殊的隐藏单元,即记忆单元,这些单元能够长时间记住先前的输入。在每个时间步,记忆单元接收网络的前一个状态和当前输入,并结合当前内存内容,通过其他单元的门控机制决定保留和删除哪些信息。
在实践中,我们实现了两种神经网络模型,使用LSTM解决MNIST数据集中的图像分类问题。此外,我们还展示了TensorFlow在预测文本序列中下一个单词这一复杂任务中的应用。
以下是训练过程中的一些指标:
| 指标 | 值 |
| — | — |
| 0.404困惑度 | 42.332 |
| 0.404速度 | 356 wps |
| 0.504困惑度 | 41.694 |
| 0.504速度 | 356 wps |
| 0.604困惑度 | 40.275 |
| 0.604速度 | 357 wps |
| 0.703困惑度 | 39.673 |
| 0.703速度 | 356 wps |
| 0.803困惑度 | 39.021 |
| 0.803速度 | 356 wps |
| 0.903困惑度 | 37.690 |
| 0.903速度 | 356 wps |
| 第13轮训练困惑度 | 36.869 |
| 第13轮验证困惑度 | 123.358 |
| 测试
超级会员免费看
订阅专栏 解锁全文
1309

被折叠的 条评论
为什么被折叠?



