关于python运行大文件导致死机的问题
最近因为科研需要,需要打开一个巨大的txt文件。借鉴了Python读取大文件的行数中的代码片段,成功按行读取了大小为5.6GB的.txt文件。但最终因为所设置的model变量需要将5.6GB文件的数据全部转换为.npy的形式,占用内存过大导致溢出。
所用代码片段如下:
count=0
model = {
}
fp = codecs.open("filename","r")
while 1:
最近因为科研需要,需要打开一个巨大的txt文件。借鉴了Python读取大文件的行数中的代码片段,成功按行读取了大小为5.6GB的.txt文件。但最终因为所设置的model变量需要将5.6GB文件的数据全部转换为.npy的形式,占用内存过大导致溢出。
所用代码片段如下:
count=0
model = {
}
fp = codecs.open("filename","r")
while 1: