
NLP
kkzyb123
这个作者很懒,什么都没留下…
展开
-
torch.nn.Transformer解读与应用
nn.TransformerEncoderLayer这个类是transformer encoder的组成部分,代表encoder的一个层,而encoder就是将transformerEncoderLayer重复几层。Args:d_model: the number of expected features in the input (required).nhead: the number of heads in the multiheadattention models (required).d原创 2020-10-26 19:02:45 · 40548 阅读 · 12 评论 -
transformers - huggingface中 bertseqclassification使用
学习目标:huggingface bert的使用学习内容:data precessor等类的搭建 (预处理文本数据)pretrain模型的调用模型的搭建(与pytorch结合使用)训练过程DataProcessor类其中get_labels和几个get_examples需要注意,可能需要自己改写InputExample类guid是唯一标识符 可以定义成下面这种形式guid = f'{set_type}-{i}-{j}'#这里的f是python的字符串格式label a 和labe原创 2020-09-26 15:14:36 · 1868 阅读 · 0 评论 -
gensim导入pytorch embedding
gensim 导入model方法gensim 导入word2vec模型gensim 构建pytorch的预训练embeddinggensim 导入word2vec模型使用KeyedVector.load_word2vec_format() ,这样将模型加载到一个keyvector实例中import gensimmodel = gensim.models.KeyedVectors.load_word2vec_format('vectors.bin', binary=True)此处导入了 word2原创 2020-09-24 17:28:18 · 2988 阅读 · 0 评论