gensim的word2vec使用

在生成word2vec模型后,还要想办法把模型塞进embed层来使用。

model.wv.save_word2vec_format(u"./data_path/model")

nparray的读写:

npy_path=u"data_path/sample.npy"
a=numpy.array(range(0,16)).reshape((2,2,-1),order='F')
print(a)
numpy.save(npy_path,a)
print(numpy.load(npy_path))

dictionart的读写:

data={'a':[1,2.0,3,4+6j],
      'b':('String',u'unicode string'),
      'c':None}
print(data)
#写
output=open(pkl_path,'wb')
pickle.dump(data,output)
output.close()
#读
pkl_input=open(pkl_path,'rb')
print(pickle.load(pkl_input))
pkl_input.close()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值