前言
偷偷告诉你们,在写这篇文章时,标题就是用chatGPT生成的
一、GPT全称
大语言模型的全称是Generative Pre-trained Transformer
Generative:生成式
Pre-trained:预训练
Transformer:变换模型
二、Generative:生成式
在GPT(Generative Pre-trained Transformer)中,“生成式”是指模型在训练时能够生成自然语言文本的能力。GPT是一种基于Transformer模型的自然语言生成技术,可以在大量文本数据上进行训练,以学习语言的结构和规律。
生成式模型与判别式模型不同,它并不仅仅对输入的文本进行分类或标记,而是能够生成新的、连贯的文本。这种能力使得GPT可以用于各种自然语言处理任务,如机器翻译、自动摘要、文本生成等。
在GPT中,生成式体现在模型的结构设计和训练目标上。GPT通常采用自回归的语言模型作为训练目标,即模型需要根据一个文本序列的前一部分来预测接下来