NLP实战项目(2)——BERT文本分类

1、数据集介绍

采用了清华NLP组提供的THUCNews新闻文本分类数据集的子集。其中训练集一共有 180000 条,验证集一共有 10000 条,测试集一共有 10000 条。其类别为 finance、realty、stocks、education、science、society、politics、sports、game、entertainment 十个类别。

2、BERT模型

BERT是Bidirectional Encoder Representations from Transformers的缩写,是一种为自然语言处理 (NLP) 领域设计的开源机器学习框架。该框架起源于 2018 年,由 Google AI Language 的研究人员精心打造。

图片

预训练模型下载地址:https://huggingface.co/google-bert

如果使用英文数据集则使用bert-base-uncased,如果是中文数据集则使用bert-base-chinese。

BERT Embedding模块如下:

图片

BERT文本分类模型如下:

图片

 

3、代码实现

文末免费获取数据集和源码压缩包。

训练曲线及测试精度:

图片

图片

图片

进入下面公众号聊天窗口回复“BERT文本分类”即可获取完整源码。

最后:

小编会不定期发布相关设计内容包括但不限于如下内容:信号处理、通信仿真、算法设计、matlab appdesigner,gui设计、simulink仿真......希望能帮到你!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

MatpyMaster

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值