Recurrent Neural Network(RNN) - 循环神经网络(part 3) Gated RNN
0 前言
- 其实这节课的内容跟我其他这个系列的博客是不属于同一个课程的,但是因为是在 B 站看的视频,up 主可能不小心弄混了,于是我就也一起看了,多学点总没什么错。
- 虽然不是同一门课,但是确实是同一个老师,也是极其学习的内容,所以就当做一门课也没什么差别。这里给出这节课内容所属的课程网站 Applied Deep Learning / Machine Learning and Having It Deep and Structured
1 几种 RNN 结构
RNN 中有一个 Basic Function ,无论输入的序列多长,都会经过这个 Fuction。现在我们假设这个Function叫做 f:h′,y=f(h,x) f : h ′ , y = f ( h , x ) ,即输入 h,x h , x ,输出 h′,y h ′ , y . 注意 h′ h ′ 和

本文介绍了循环神经网络RNN的深入内容,特别是LSTM和GRU两种门控机制。LSTM通过分离记忆单元c和隐藏状态h,解决了长期依赖问题,而GRU作为简化版的LSTM,同样有效。文章详细阐述了两种结构的工作原理及其计算过程。
最低0.47元/天 解锁文章
1137

被折叠的 条评论
为什么被折叠?



