【笔记】吴恩达 深度学习 序列模型 第一周 知识点总结

本文是吴恩达深度学习课程中序列模型第一周的学习总结,主要内容包括序列模型的应用、RNN的基本结构和问题、GRU、LSTM、双向RNN及深层RNN。通过讲解,阐述了如何使用RNN处理序列数据,并介绍了为解决梯度消失问题而提出的GRU和LSTM单元。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

大约半年前在coursera上学完了Ng的深度学习,受益匪浅。只不过时间长了,有的知识点也忘了。趁着寒假宅家,索性复习总结一遍。

第一周主要引入了循环神经网络,然后介绍了其基本结构,随后抛出普通RNN的问题(不能记录先前信息、梯度消失等),引出用于解决这些问题的改进RNN结构——GRU和LSTM,最后介绍了双向RNN和深层RNN。


Why sequence models

这一小节,介绍了序列模型的应用领域。比较常见的有语音识别情感分析机器翻译命名实体识别(前三个,在后面的编程作业都有涉及)。此外,还有音乐生成(文本生成)(作业有涉及)、DNA序列分析和视频动作识别。


Notation

这一小节,介绍了序列模型的标注方法,可以根据不同的应用场合采用不同的标记方法。比如在命名实体识别里面,对于一个句子x,如果出现的是人名,则输出1,否则为0。

对于每一个序列问题,都应该有一个词汇表,用于将序列中的每一个单词,映射成一个one-hot向量。但是仅仅映射成one-hot向量是不够的,还需要添加词向量才行(第二周会讲)。


Recurrent Neural Network Model

这一小节,从用传统神经网络来处理序列模型引发的问题,引出了RNN模型。

有两个问题,第一个是对于序列模型而言,每个样本的长度是不一样的,而传统NN的第一层Neuron数量又是固定的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值