目录
项目介绍:
2000多个文本数据 ,二分类问题使用pytoch开发
bert原理:
BERT 来自 Google 的论文Pre-training of Deep Bidirectional Transformers for Language Understanding,BERT 是“Bidirectional Encoder Representations from Transformers”的首字母缩写,整体是一个自编码语言模型(Autoencoder LM),并且其设计了两个任务来预训练该模型。
第一个任务是采用 MaskLM 的方式来训练语言模型,通俗地说就是在输入一句话的时候,随机地选一些要预测的词,然后用一个特殊的符号[MASK]来代替它们,之后让模型根据所给的标签去学习这些地方该填的词。
第二个任务在双向语言模型的基础上额外增加了一个句子级别的连续性预测任务,即预测输入 BERT 的两段文本是否为连续的文本,引入这个任务可以更好地让模型学到连续的文本片段之间的关系。
最后的实验表明 BERT 模型的有效性,并在 11 项 NLP 任务中夺得 SOTA 结果。
BERT 相较于原来的 RNN、LSTM 可以做到并发执行,同时提取词在句子中的关系特征,并且能在多个不同层次提取关系特征,进而更全面反映句子语义。相较于 word2vec,其又能根据句子上下文获取词义,从而避免歧义出现。同时缺点也是显而易见的,模型参数太多,而且模

本文详细介绍了基于BERT的文本分类项目,包括2000多条二分类数据,利用PyTorch开发。内容涵盖BERT原理,如双向Transformer、MaskLM和NSP任务,以及模型图、数据介绍、代码环境、数据预处理、ROC曲线绘制和预测结果的输出。提供了完整的代码和数据资源。
订阅专栏 解锁全文
1159

被折叠的 条评论
为什么被折叠?



