文章目录
Hi, 你好。我是茶桁。
我们上一节课,用了一个示例来展示了一下我们为什么要用RNN神经网络,它和全连接的神经网络具体有什么区别。
这节课,我们就着上一节课的内容继续往后讲,没看过上节课的,建议回头去好好看看,特别是对代码的进程顺序好好的弄清楚。
全连接的模型得很仔细的去改变它的结构,然后再给它加很多东西,效果才能变好:
self.linear_with_tanh = nn.Sequential(
nn.Linear(10, self.hidden_size),
nn.Tanh

本文探讨了RNN模型的优势,包括其简单的结构与信息保留能力,介绍了StackedRNN和双向RNN的概念。重点讲解了LSTM如何通过门控机制解决梯度消失问题,以及GRU作为LSTM的简化版本,减少了参数和过拟合风险。
订阅专栏 解锁全文
196

被折叠的 条评论
为什么被折叠?



