Pytorch错误定位:
跑代码时出现了以上错误,发现embedding的向量字典个数设置小于实际的类别数。
另外,使用GPU时对于代码错误的定位是有误的,需要在cpu模式下找到实际的错误定位。
首先看下Embedding层的参数,num_embeddings
要设置成字典的大小,但是要记住,一定是vocab_size + 1
,而不是vocab_size
,即要设置为字典大小+1
。参考:https://blog.youkuaiyun.com/Geek_of_优快云/article/details/86527107