AIGC之文本内容生成概述(上)

本文介绍了自然语言处理中的深度学习技术,重点讨论了LSTM如何处理长期依赖,Word2Vec和GloVe在词向量表示上的差异。LSTM通过门控机制捕获长序列信息,但存在计算复杂性和参数理解限制;Word2Vec和GloVe则提供词向量表示,前者侧重全局统计,后者结合上下文信息,两者都有限制但广泛应用。
由于本文内容稍微长了一点点,所以分成了上下两篇文章来介绍,本文是上篇,下篇将会在后续发布。关于自然语言的生成方面,这一块的内容太多了,本文也只是穿针引线,帮大家理清学习路线而已,更多的内容,大家可以自行查找资料学习。


自今年ChatGPT火了之后,大家都把目光放在AI聊天和绘画这些事情上,我们在上一个AIGC图像生成内容的文章中讲过AI作画的技术和应用,这篇文章就来分析一下AI在文本内容生成方面的技术和应用。


想要更好地了解AI在文本生成方面的内容,就需要从自然语言处理方向的技术发展和应用开始。我们将以深度学习在自然语言处理中的技术应用场景作为方向,对主流的文本生成模型进行剖析,下面是对LSTM、Word2Vec、GloVe、ELMo、Transformer、BERT、GPT等多个具有代表性的深度学习文本处理技术的详细介绍,并且对每种技术的优缺点以及应用场景进行了分析。


1、LSTM(Long Short Term Memory)


LSTM的全称是Long Short Term Memory,顾名思义,它具有记忆长短期信息的能力的神经网络。该网络是对RNN(循环神经网络)的进一步扩展和改进,在RNN网络的基础上增加了"门"的概念,它通过“门”来控制不同时刻的信息流入和流出。


LSTM首先在1997年由Hochreiter & Schmidhuber 提出,由于深度学习在2012年的兴起,LSTM又经过了多位行业大佬的改良和发展(Felix Gers, Fred Cummins, Santiago Fernandez, Justin Bayer, Daan Wierstra, Julian Togelius, Faustino Gomez, Matteo Gagliolo, and Alex Gloves),由此便形成了比较系统且完整的LSTM框架,并且在很多领域得到了广泛的应用。


LSTM是将“门”的概念融入之后的RNN变种网络,是一种常用的递归神经网络,和RNN网络相比,LSTM网络可以在处理序列数据时记住长期依赖关系,从而使得生成文本更加准确。LSTM通过“门”的方式来控制信息的流动,包括输入门、输出门和遗忘门。其中,输入门控制新信息的输入,遗忘门控制旧信息的遗忘,输出门控制输出的信息,后续还有其他类似的改进型网络,比如GRU网络、SRU网络等,都是使用这种“门”的形式来控制网络中的信息流动量,从而能够记住更加久远的信息,使得模型具备一定的记忆能力。


LSTM网络虽然具备这种长短期记忆的能力,但是由于其网络是共享参数的,对于微小信息的捕捉是非常弱的。随着外界输入信息的不断增大,这种网络结构对于信息的压缩也是非常大的,在这种情况下,对于我们安排给他的任务,实际上完成度是不能够达到我们的满意的。


下面我们就LSTM网络在一些应用任务中的表现进行分析,看一下哪些任务是LSTM网络完全可以做的,哪些任务是LSTM网络不能完全完成的。


下面是LSTM完全能做的任务,我们发现LSTM网络不仅能做文本生成类的应用,还能做其他比如语音、信号序列等方面的任务:


1.语言建模:LSTM可以通过学习文本序列的上下文信息,预测下一个单词或字符,从而用于语言建模任务,如自动文本生成、机器翻译等。


2.语音识别:LSTM可以处理连续的语音信号序列,并将其转化为对应的文本表示,因此在语音识别任务中表现出色。


3.命名实体识别:LSTM可以从文本中识别和标记出命名实体(如人名、地名、组织名等),用于信息提取和实体识别任务。


4.情感分析:LSTM可以对文本进行情感分类,即判断文本中的情感倾向,如积极、消极或中性。


5.时间序列预测:LSTM在处理时间序列数据时具有较强的能力,可用于预测未来的趋势、模式和事件,如股票价格预测、天气预测等。


LSTM网络不能完全做的任务有下面几个方向:


1.图像内容描述生成:LSTM可以与卷积神经网络(CNN)结合,用于生成图像的文字描述。虽然LSTM能够生成描述,但其对图像内容理解的能力有限,导致生成的描述可能不够准确或完整。


2.机器阅读理解:LSTM可以用于处理机器阅读理解任务,但对于复杂的推理和逻辑推断要求较高的问题,LSTM无法完全胜任。


3.语义角色标注:LSTM可以用于将句子中的单词与其语义角色进行关联标注,但在涉及到长距离依赖和复杂语义关系的情况下,LSTM可能无法完全捕捉到细粒度的语义信息。


4.文本摘要生成:LSTM可以用于生成文本的摘要,但生成的摘要可能受限于模型的记忆能力和摘要的准确性。


看了上面LSTM网络对于能够处理的任务和不能处理的任务,我们可以基本判定,LSTM网络的最大限制来自于网络的参数的理解能力,如果模型参数不能够理解文章中包含细粒度的信息,就很难传递出人类想要得到的答案,这正是LSTM所欠缺的。


由于LSTM在所有时刻都共享参数,这是非常伟大的一个发明,能够将参数利用到机制,但是同时也限制了它的能力,第一个就是网络的参数容量不够强大到处理大型数据,这一点看一下ChatGPT就明白了,现在的大模型之所以大,就是参数量大,全连接的网络设计比循环神经网络的设计在参数上要大几倍升至几十倍的数量级,而LTSM的设计初衷刚好和大模型的理念背道而驰。


第二就是由于所有的参数都共享,可能会导致参数同质化现象,缺少聚焦,所以它的参数没有办法进行细粒度的信息表示,比如句子之间的关系、词之间的关系等。


第三个就是模型参数进行反向传播更新梯度的时候,想更新某一时刻的参数就需要将这一时刻之前所有时刻的参数都更新一遍,比如要更新Ct时刻的参数,就需要Ct-1、Ct-2...时刻的参数,因为所有时刻的参数都是共享的,如果只更新当前时刻的参数,而不更新之前所有时刻的参数,那它就不是循环神经网络了,因为当前时刻的参来自于之前所有时刻参数的叠加。以当前时刻为界,之前所有时刻的参数要同步更新的结果才是循环神经网络反向更新的核心,这种牵一发而动全身的参数更新模式给模型的训练带来了极大的麻烦。


RNN网络在反向传播过程中由于不同时刻之间长序列的梯度传播,会导致模型的梯度弥散。主要原因是由于时间维度共享了参数矩阵,导致计算隐藏层ht时会循环计算矩阵乘法,所以BPTT算法求解梯度时出现了参数矩阵的累乘。这个问题在LSTM网络中得到了一定的解决,但仅限于细胞状态中时序位置的信息,对于底层的细粒度交互信息,LSTM网络会极度的压缩。


我们可以把LSTM想象成一个高级压缩器,对于输入的信息,它具有高

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值