使用python读取较大.csv文件行数

pandas直接读取

我只要读一个文件的行数,最开始没想到内存的问题,想着用pandas库做:

df = pd.read_csv(directory)
print('***************当前文件有' + str(len(df)) + '行数据***************')

文件大概10个G
内存爆掉,失败

使用 with open() as 读写文件

参考:
https://blog.youkuaiyun.com/xrinosvip/article/details/82019844
https://blog.youkuaiyun.com/weixin_36276175/article/details/112928297

with open(filename) as foo:
     lines = len(foo.readlines())
print(lines)

先读了一个小一点的文件试了下,感觉速度慢

上网搜到了一个函数,也不算很快,但是是可以接受的速度。

def get_file_count_1(file_path):
     cnt = 0
     with open(file_path,mode = 'rb') as f:
         for line in f:
             cnt += 1
     return cnt

这个程序是在这里看到的:https://blog.youkuaiyun.com/qq_42902673/article/details/105918766?utm_medium=distribute.pc_relevant.none-task-blog-baidujs_baidulandingword-5&spm=1001.2101.3001.4242

其他参考

有写多线程的什么的,看不懂,先马一下
https://blog.youkuaiyun.com/p15097962069/article/details/103547812?utm_medium=distribute.pc_relevant.none-task-blog-baidujs_baidulandingword-9&spm=1001.2101.3001.4242

### 如何用Python高效读取大型CSV文件的最佳实践 当处理大型 CSV 文件时,Pandas 是一种常用的工具,但由于其默认行为会将整个文件加载到内存中,因此可能会导致性能瓶颈。以下是几种最佳实践方法来优化 Python 中的 CSV 文件读取过程。 #### 方法一:分块读取 通过设置 `chunksize` 参数可以实现分块读取功能,这样每次只加载一部分数据进入内存,从而减少整体内存消耗[^2]。 ```python import pandas as pd file_path = 'large_data.csv' chunk_size = 1000000 # 设置每一块的数据行数 reader = pd.read_csv(file_path, chunksize=chunk_size) for chunk in reader: process(chunk) # 对每一部分数据进行操作 ``` #### 方法二:仅读取必要的列 如果不需要所有的列,则可以通过指定 `usecols` 参数来选择特定的几列,这同样能够有效降低内存使用率[^1]。 ```python columns_to_read = ['column1', 'column2'] df = pd.read_csv('data.csv', usecols=columns_to_read) ``` #### 方法三:调整数据类型 对于某些数值型字段,默认情况下可能被识别为浮点数或者整数形式,但如果提前知道这些值的实际范围较小的话,那么就可以手动设定更节省空间的数据类型[^3]。 ```python dtype_dict = {'int_column': 'int8', 'float_column': 'float16'} df = pd.read_csv('data.csv', dtype=dtype_dict) ``` #### 方法四:利用压缩技术 如果原始CSV文件已经被压缩成gzip,bzip2等格式存储,在调用read_csv函数的时候可以直接支持解压并解析这样的文件,无需先将其转换回纯文本状态再导入系统内部,进一步提升了效率同时也减少了磁盘I/O开销[^2]。 ```python compressed_file = 'data.csv.gz' df = pd.read_csv(compressed_file, compression='infer') ``` 以上就是一些关于如何在Python环境下更加有效地去应对大规模结构化表格类资料的一些策略建议;当然除了上述提到的技术手段之外还有其他更多可能性等待探索发现!
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值