一,为什么需要LSTM(长短期记忆网络)
- 普通的RNN不能长久传播
- 引入选择性机制
- 选择性输出
- 选择性输入
- 选择性遗忘
- 选择性 - > 门
- Sigmoid函数:[0,1]

- Sigmoid函数:[0,1]
- 门限机制
- 向量A -> sigmoid -> [0.1,0.9,0.4,0,0.6]
- 向量B -> sigmoid -> [13.8,14,-7,-4,30]
- A为门限,B为信息
- A* B = [0.138,12.6,-2.8,0,18
二,什么是LSTM(长短期记忆网络)
符号说明:

1,模型结构OVERVIEW

2,Cell的状态传递

3,遗忘门
新的一句有新的主语,就应该把之前的主语忘掉

4,传入门
是不是要把主语的性别信息添加进来

5,输出门
动词该用单数形式还是复数形式

6,当前状态
- 经过遗忘门的上一状态
- 经过传入们的输入状态


LSTM(长短期记忆网络)是一种解决普通RNN长期依赖问题的递归神经网络变体,通过门控机制实现选择性地遗忘、输入和输出。遗忘门允许模型忽略不再相关的信息,传入门用于添加新信息,而输出门则决定哪些信息应被传递到下一个时间步。这种设计使得LSTM在网络中有效地处理和存储长期依赖关系,尤其在语言模型、序列标注等任务中表现出色。
8027

被折叠的 条评论
为什么被折叠?



