博客
1.一篇中文个人博客,结合了kaggle比赛的一个新闻分类任务,示例的代码可以直接运行,推荐。
进击的Bert
2.一篇博客园的博客
BERT 预训练模型及文本分类
3.一篇英文博客
BERT Word Embeddings Tutorial
官方资源
1.transformers 预训练模型
2.huggingface-transformers
3.huggingface-pretrained models
4.huggingface-Training and fine-tuning
应该是官方的资源吧?
本文介绍了Bert预训练模型在文本分类任务中的应用,包括新闻分类等具体案例,并提供了可以直接运行的示例代码。此外,还汇总了官方资源如transformers预训练模型的相关链接。
7020

被折叠的 条评论
为什么被折叠?



