跑yscacaca/HHAR-Data-Process出现的问题

本文介绍了一次尝试运行大数据处理脚本的经历,在处理一个2GB大小的文件夹时遇到内存不足的问题。文中详细分析了问题的原因,并探讨了解决内存瓶颈的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

直接按照说明跑:

python dataAli-sameUserDevice.py
python pairDataFile.py
python sep_HHAR_data.py

但在sep_HHAR_data.py的时候一直跑不出来,我发现这个代码处理的是Dataset_AccGry_SourceDevice-Creation_Time-avgTime这个文件夹下的文件,这个文件夹有2G,代码里需要存储一个dict,是针对所有的文件,这就造成了需要大量的内存来存储这些信息,自己电脑内存比较小就会卡

 

free -h看的是内存、buffer、cache和swap

-h:G为单位 -m:M为单位

total是总共,used是已使用,free是未使用

我的dict使用的都是mem,即内存

buffer 用于存放要输出到磁盘的数据,而cache是从磁盘读出存放到内存中待今后使用的数据。它们的引入均是为了提供IO的性能

swap为虚拟内存

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值