pyspark下读取minio数据

本文记录了作者在pyspark中读取Minio数据文件时遇到的问题及解决方法。由于spark无法直接读取HTTP响应的URL,作者利用Minio支持的S3接口来实现。关键在于引入与hadoop-common版本匹配的hadoop-aws.jar和aws-java-sdk.jar依赖。pyspark读取S3文件的代码示例也在文中给出。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

记录一下自己花了一下午时间在pyspark读取minio数据文件遇到的坑

因为spark没法直接进行像pd.read_csv一样对HTTPresponse的url的读取,但是minio支持s3的接口,所以按照对于s3的读取就ok了。

spark读取s3文件时,需要两个额外的jar外部依赖包,hadoop-aws.jar 和aws-java-sdk.jar ,同时这两个版本是需要对应的。并且要确保hadoop-common和hadoop-aws的版本必须一致,否则会出现org/apache/hadoop/fs/StreamCapabilities的报错。
我使用的版本

我使用的版本

pyspark读取s3上的文件代码如下`

   AWS_ID = 'admin'
   AWS_KEY = 'admin'
   sc
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值