
nlp
文章平均质量分 97
weixin_44599230
小菜鸡
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
基于pytorch自己训练一个小型的chatgpt闲聊程序
OpenAI公式在2018年提出了一种生成式预训练(Generative Pre-Trainging,GPT)模型用来提升自然语言理解任务的效果,正式将自然语言处理带入预训练时代,预训练时代意味着利用更大规模的文本数据一级更深层次的神经网络模型学习更丰富的文本语义表示。同时,GPT的出现提出了“”生成式预训练+判别式任务精调的自然语言处理新范式,使得自然语言处理模型的搭建变得不在复杂。生成式预训练:在大规模文本数据上训练一个高容量的语言模型,从而学习更加丰富的上下文信息;原创 2023-04-07 15:10:35 · 10048 阅读 · 22 评论 -
文本识别CRNN模型介绍以及pytorch代码实现
文本识别CRNN pytorch原创 2022-06-25 15:21:03 · 12682 阅读 · 60 评论 -
GPT模型介绍并且使用pytorch实现一个小型GPT中文闲聊系统
文章目录GPT模型介绍无监督训练方式模型结构微调下游任务输入形式GPT-2GPT-3pytorch实现一个小型GPT中文闲聊系统GPT模型介绍GPT与BERT一样也是一种预训练模型,与BERT不同的是,GPT使用的是Transformer的Decoder结构。在大量没有标号的数据上训练出一个预训练模型,然后少量有标号的数据上微调训练一个中下游任务的模型。在微调的时候构造与任务相关的输入,就可以很少地改变模型的架构。无监督训练方式使用一个标准的语言模型训练方式来进行无监督训练,就是给定一个句子,使用前原创 2022-04-11 21:26:01 · 18936 阅读 · 78 评论 -
hmm中文分词原理简单介绍与python实现
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录马尔可夫模型隐马尔可夫模型1.引入库2.读入数据总结马尔可夫模型一个长度为N的序列N1,N2,N3,...NNN_{1}, N_{2}, N_{3},...N_{N}N1,N2,N3,...NN,每个位置有k种可能的状态Sj(1<=j<=k)S_{j}(1<=j<=k)Sj(1<=j<=k),第t个位置的状态qtq_{t}qt 取决于前t个位置的状态,概率表示为p(qt=Sj∣.原创 2022-04-05 12:32:31 · 4557 阅读 · 16 评论