【自然语言处理与大模型】大模型(LLM)基础知识①

(1)目前主流的开源模型体系有哪些?

1. GTP(Generative Per_trained Transformer)系列,是由OpenAI发布的一系列基于Transformer架构的语言模型,包括GPT、GPT-2、GPT-3等。GPT模型通过在大规模无标签文本上进行预训练,然后再特定任务上进行微调,具有很强的生成能力和语言理解能力。

2. BERT(Bidirectional Encoder Representations from Transformers)由Google发布的一种基于Transformer架构的双向预训练语言模型。BERT模型通过在大规模无标签文本上进行预训练,然后再下游任务上进行微调,具有很强大的语言理解能力和表征能力。

(2)perfix LM和casual LM区别是什么?

 Prefix LM(前缀语言模型)和Causal LM(因果语言模型)是两种不同类型的语言模型,它们的区别在于生成文本的方式训练目标

1. Prefix LM前缀语言模型是一种生成模型,它在生成每个词时都可以考虑之前的上下文信息。在生成时,前缀语言模型会根据给定的前缀(即部分文本序列)预测下一个可能的词。这种模型可以用于文本生成、机器翻译等任务。

2. Causal LM因果语言模型是一种自回归模型,它只能根据之前的文本生成后续的文本,而不能根据后续的文本生成之前的文本。在训练时,因果语言模型的目标是预测下一个词的概率,给定之前的所有词作为上下文。这种模型可以用于文本生成、语言建模等任务。

        总的来说,前缀语言模型可以根据给定的前缀生成后续的文本,而因果语言模型只能根据之前的文本生成后续的文本。他们的训练目标和生成方式略有不同,适用于不同的任务和应用场景。

(3)大模型出现涌现能力的原因?

1. 数据量增加

2. 计算能力提升

3. 模型架构的改进

4. 预训练和微调方法的出现

(4)大模型LLM的架构介绍?

LLM(Large Language Model)大语言模型是指基于大规模数据

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值