nn.Embedding Pytorch自带Embedding模块,可以方便使用 self.embed = nn.Embedding(vocab_size, embedding_dim) 那么,如何使用已经训练好的词向量呢? 词向量其实是模型的embedding层的权重,所以,如下方法便可以实现: self.embed = nn.Embedding(vocab_size, embedding_dim) self.embed.weight.data.cop