
bert
拙小拙
这个作者很懒,什么都没留下…
展开
-
BERT简单理解
BERT是论文 Pre-training of Deep Bidirectional Transformers for Language Understanding 所提出的模型,在11个NLP任务中取得好的结果。现在研究,对于BERT的使用,一般是微调,微调时根据自己的数据,梯度下降loss(loss = 分类器的loss + Mask的loss),得到BERT模型当作词典使用或直接使用BERT的[CLS]进行预测。BERT的输入为 token embedding(包含词的信息) + positio.原创 2021-01-13 15:36:20 · 396 阅读 · 0 评论 -
BERT模型在win10的下载位置
使用如下方式调用BERT模型时,from transformers import BertTokenizer, BertModeltokenizer = BertTokenizer.from_pretrained('bert-base-uncased')model = BertModel.from_pretrained('bert-base-uncased')出现Exception has occurred: OSError Unable to load weights from pytorch转载 2020-12-17 17:48:37 · 1434 阅读 · 0 评论