
NLP
文章平均质量分 65
小饼干超人
这个作者很懒,什么都没留下…
展开
-
bert微调下游任务-情感分析
使用bert进行微调,本篇文章的任务是情感分析。原创 2025-01-13 15:59:53 · 715 阅读 · 0 评论 -
BertTokenizerFast 和 BertTokenizer 的区别
都是用于对文本进行标记化的工具,主要用于处理和输入文本数据以供 BERT 模型使用。它们都属于 HuggingFace 的库。原创 2025-01-13 14:18:03 · 631 阅读 · 0 评论 -
从预训练的BERT中提取Embedding
注意力掩码:下一步,要让模型理解[PAD]标记只是为了匹配标记的长度,而不是实际标记的一部分。我们将所有位置的注意力掩码值设置为1,将[PAD]标记的位置设置为0,如下所示。填充:为了保持所有标记的长度一致,我们将数据集中的所有句子的标记长度设为7。句子I loveParis的标记长度是5,为了使其长度为7,需要添加两个标记来填充,即[PAD]。ID 101表示标记[CLS],1045表示标记I,2293表示标记love,以此类推。添加标记:在开头添加[CLS]标记,在结尾添加[SEP]标记,如下所示。原创 2025-01-10 15:53:02 · 1260 阅读 · 0 评论