RNN
西岸行者
问君能有几多愁,恰似一只鸡腿进不了口
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
用一文来串起attention,transformer,seq2seq的知识点
前两天正沾沾自喜的稍稍看明白点RNN,结果随便搜了一下,比较醒目的关是不是RNN完全可以废弃了?就冒了出来,仔细读来也不是危言耸听,神经网络在序列建模方面,经历了RNN,seq2seq,attention,transformer一系列的进化,现在的情况是RNN(lstm,gru)已经变成了入门玩家的学习基础了。原创 2020-10-14 17:48:57 · 330 阅读 · 0 评论 -
卷积虽好,处理序列还有更好的RNN
学习RNN LSTM,并用一个小例子介绍LSTM参数量如何计算原创 2020-10-09 16:55:13 · 471 阅读 · 1 评论
分享