BERT用的基础算法是Transformer.
RNN只能处理短文本,长文本不行
RNN在语音识别,处理语言模型,时间序列分析,方面好用.
RNN(Recurrent Neural Network,循环神经网络)是一种用于处理序列数据的神经网络。与传统的神经网络不同,RNN具有内部状态(记忆),能够处理输入序列中的时间或顺序依赖问题。RNN通过循环连接形成有向循环,使得网络能够持有一定的“记忆”,并利用这些记忆来影响后续操作。
RNN的基本结构包括一个循环单元,该单元在每个时间步接收当前输入和前一个时间步的隐藏状态,并生成当前时间步的输出和新的隐藏状态。这个隐藏状态就像网络的“记忆”,它携带着序列中先前元素的信息,并影响后续元素的处理。
尽管RNN理论上能够处理任何长度的序列,但在实际应用中,它们常常受到“梯度消失”和“梯度爆炸”问题的困扰,这限制了它们学习长序列依赖性的能力。为了解决这些问题,研究者提出了几种改进的RNN结构,如长短期记忆网络(LSTM)和门控循环单元(GRU),这些结构通过引入门控机制来更好地控制和维护网络状态,从而有效地学习长期依