【深度学习】递归神经网络

本文介绍了递归神经网络(RNN),在自然语言处理中的重要性,如RNN在处理序列数据时考虑了词语的先后顺序。讨论了RNN的问题,如长期依赖问题,以及LSTM如何通过遗忘机制来改善。提到了词向量模型Word2Vec,以及训练词向量的方法。还探讨了训练数据构建,不同模型如CBOW和Skipgram的对比,并解释了softmax和sigmoid函数的作用。最后,文章讨论了负采样模型在训练过程中的优化策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1 什么是递归神经网络?
在这里插入图片描述
因为神经网络有递归关系,所以会产生时间变量(第二次迭代必定在第一次迭代之后)
每次迭代有时间节点关系,一般我们只选最后一层的输出结果

CNN:计算机视觉
RNN:自然语言处理:因为词语有先后顺序

2 LSTM网络
因为RNN网络的记忆能力太强了,每次的迭代全部记忆,最后的结果会把前面全部的结果全部考虑进来,考虑问题就不再精确,会导致模型训练的误差,LSTM网络应运而生
LSTM网络是将信息进行遗忘

3 自然语言处理-词向量模型-Word2Vec
让计算机更好的认识文本:有些词出现的比较近,在词向量空间上比较一致(比如足球,篮球)

4 如何训练词向量?
在这里插入图片描述
在这里插入图片描述
embedding:在词库里找到词向量

5 训练数据构建
只要是逻辑通顺就可以作为我们的训练构建数据

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值