
Python
zhshmi1995
从一无所知,到所知甚少,再到积少成多,最后到多知而有所精通
展开
-
学习Tensorflow之一:利用SparseTensor/Matrix(稀疏张量或矩阵)优化机器学习模型中的embedding
搭建基于python的深度学习模型过程中,常见的一个问题是如何利用有效的内存来进行超大数据量的计算,这个问题带来了很大的内存开销和计算开销。比较好的解决办法是利用scipy.sparse库以稀疏矩阵形式来保存数据,然后在机器学习模型中导入数据,再将数据转换成稀疏Tensor的形式,以便高效地利用数据。 下面 ...原创 2020-04-04 16:57:41 · 2291 阅读 · 0 评论 -
学术入门之一:如何在ubuntu16.0.4系统上快速搭建tensorflow以及pytorch环境
在大佬论文的代码基础上修改并加入自己的idea是比较常见的学术上手方式之一,但论文用的框架 (pytorch, tensorflow等) 可能会存在差异,可能需要你同时看几个框架的代码,也可能需要安装同一个框架的多个版本,那么如何在ubuntu上快速搭建相应的环境 (且各个环境之间相互独立存在) 成为一个比较常见的问题。在此向大家推荐安装anaconda平台与pycharm搭配使用,实现各个环境独...原创 2019-11-24 22:17:32 · 183 阅读 · 0 评论 -
稀疏矩阵 scipy.sparse.csr_matrix 执行判断条件,将对应元素置为0,并保存为npz文件
考虑对稀疏矩阵执行判断条件,去除掉一些不满足条件的元素(这里是将不满足条件的元素值置为0). (1).如果直接对稀疏矩阵操作,然后保存得到npz文件. 执行操作(将稀疏矩阵不满足条件的元素置为0)的效率会非常低: S= sparse.load_npz('1.npz') S[S>1]=0 sparse.save_npz('2.npz', S) (2).考虑将稀疏矩阵转换成ndarry数组...原创 2019-04-12 12:30:38 · 764 阅读 · 0 评论 -
利用pytorch_pretrained_bert得到wordEmbedding (batch_size,1024),保存为稀疏矩阵sparse.dok_matrix( )
1.注意本方法只适用于保存2维embedding 因为直接将完整的Bert加入到其他模型中,训练时会出现内存不够用的情况,考虑将通过Bert得到的Embedding保存为文件,再在其他模型中导入使用,试过很多保存的方法(numpy.savetxt等),都不成功,最后采用稀疏矩阵sparse.dok_matrix的方式保存wordEmbdedding,然后利用toarray()方法转换为矩阵形式,发...原创 2019-07-16 11:47:53 · 3212 阅读 · 1 评论