hadoop异常: org.apache.hadoop.mapreduce.lib.input.InvalidInputException: Input path does not exi

本文介绍了在使用IntelliJ IDEA进行Hadoop开发时遇到的一个常见错误:Input path does not exist,并提供了详细的排查及解决步骤。首先确认HDFS中是否存在指定文件,若不存在则需创建;其次检查路径是否正确及是否存在拼写错误。

在安装idea的hadoop开发环境的时候,环境安装完后,运行出现以下错误:


Exception in thread "main" org.apache.hadoop.mapreduce.lib.input.InvalidInputException: Input path does not exist:


这个提示了找不到文件,所以解决步骤如下:

1)确认下集群上的HDFS系统上有没有这个文件,没有的话用命令 hdfs dfs -mkdir -p XXXX 创建文件

2)用hdfs dfs -ls 确认下文件的存在,然后和自己输入的参数比较一下,看看有没有拼写错误

3)确认路径是否真的正确,因为hdfs上可能新建文件夹的时候无意识的都是用的相对路径,所以自己没

   确认正确的路径

比如自己认为的路径:hdfs://localhost:9000/input

实际上这个路径是错误的 输入 hdfs dfs -ls /

drwxr-xr-x   - root supergroup          0 2017-02-05 21:47 /user


发现实际上绝对路径应该是 hdfs://localhost:9000/user/hadoop/input




Hadoop出现 `org.apache.hadoop.mapred.InvalidInputException: Input path does not exist` 错误,意味着程序尝试访问的输入路径不存在,下面是不同场景下的解决方法: - **使用Spark进行词频统计案例集群运行jar包时出错**:若在执行词频统计案例集群运行jar包命令时,出现 `Exception in thread "main" org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: file:/spark/test/words.txt` 这样的错误,可使用如下命令: ```bash /export/servers/spark/bin/spark-submit --master spark://hadoop1:7077 --class cn.spark.WordCount_Online --executor-memory 1g --total-executor-cores 1 /export/data/spark_chapter02-1.0-SNAPSHOT.jar hdfs://192.168.110.132:9000/spark/test/words.txt hdfs://192.168.110.132:9000/spark/test/out ``` 其中,`hadoop1` 可替换为集群中master节点的主机名称;`hdfs://192.168.110.132:9000` 里的IP地址要换成master主机的IP,9000换成hdfs所在的端口号,端口号可通过查看 `core-site.xml` 文件获取[^4]。 - **在Spark中运行 `sc.textFile()` 等函数时出错**:若运行 `sc.textFile()` 等函数后,出现 `org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: hdfs://localhost:9000/Filename.txt` 错误,要保证输入路径 `hdfs://localhost:9000/Filename.txt` 是存在的,可通过HDFS命令(如 `hdfs dfs -ls hdfs://localhost:9000/Filename.txt`)来检查路径是否存在,若不存在,需创建相应文件或目录[^2]。 - **创建 `peopleDF` 后使用 `peopleDF.show` 出错**:当创建完 `peopleDF` 后,使用 `peopleDF.show` 出现 `org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: file:/opt/module/hadoop-3.1.3/etc/hadoop/spark-2.1.1-bin-hadoop2.7/bin/examples/src/main/resources/people.txt` 错误,要保证文件 `file:/opt/module/hadoop-3.1.3/etc/hadoop/spark-2.1.1-bin-hadoop2.7/bin/examples/src/main/resources/people.txt` 确实存在于指定路径下,可通过本地文件系统命令(如 `ls /opt/module/hadoop-3.1.3/etc/hadoop/spark-2.1.1-bin-hadoop2.7/bin/examples/src/main/resources/people.txt`)来检查文件是否存在,若不存在,需创建或移动文件到该路径[^3]。
评论 2
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值