Spark读取不了本地文件&&Spark默认读取HDFS文件系统

本文探讨了在Spark中读取本地文件时遇到的问题及解决方案。当使用file://...路径时,若仅在Master节点存在文件,则会因Worker节点无法找到文件而报错。文章提供了两种解决策略:一是在所有Worker节点上复制所需文件;二是将文件上传至HDFS实现共享。

问题描述

In [10]: inputFile = "file:///home/learning-spark/files/ham.txt"

In [11]: input = hiveCtx.read.json(inputFile)
19/01/23 17:12:51 WARN scheduler.TaskSetManager: Lost task 0.0 in stage 3.0 (TID 21, slave3, executor 3): java.io.FileNotFoundException: File file:/home/learning-spark/files/ham.txt does not exist

可以肯定那个文件件在本地是存在的,但是读取不到;

解决方法

  • 若是指定文件路径为 “file://…”,则读取的是本地目录;
  • 未指定默认为HDFS文件系统

如果程序中读取的是本地文件,那么,要在所有的节点都有这个数据文件,只在master中有这个数据文件时执行程序时一直报找不到文件

解决方式1:让每个Worker节点的相应位置都有要读取的数据文件。

解决方式2:直接将数据文件上传到hdfs,达到数据共享。

In [14]: inputFile = "file:///home/learning-spark/files/testweet.json"

In [15]: input = hiveCtx.read.json(inputFile)
[Stage 5:>                                                          (0 + 2) / 2]19/01/23 19:50:05 WARN spark.ExecutorAllocationManager: No stages are running, but numRunningTasks != 0

参考文章

评论 2
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值