Hadoop学习-错误记录:TokenizerMapper not found

本文解决了WordCount程序运行时报出的ClassNotFoundException问题,错误原因是未能找到Mapper类。通过调整Eclipse项目的配置,移除多余的配置文件,成功解决了该问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在运行WordCount程序时,报如题错误信息,在网上苦寻解决方案无果后,终于自己排查出了错误。发表在此给需要的人一个参考。
报错信息:

17/09/14 06:17:11 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
17/09/14 06:17:12 INFO client.RMProxy: Connecting to ResourceManager at master/192.168.137.129:8032
17/09/14 06:17:13 WARN mapreduce.JobResourceUploader: Hadoop command-line option parsing not performed. Implement the Tool interface and execute your application with ToolRunner to remedy this.
17/09/14 06:17:13 WARN mapreduce.JobResourceUploader: No job jar file set.  User classes may not be found. See Job or Job#setJar(String).
17/09/14 06:17:13 INFO input.FileInputFormat: Total input paths to process : 9
17/09/14 06:17:13 INFO mapreduce.JobSubmitter: number of splits:9
17/09/14 06:17:13 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1505394411892_0002
17/09/14 06:17:13 INFO mapred.YARNRunner: Job jar is not present. Not adding any jar to the list of resources.
17/09/14 06:17:13 INFO impl.YarnClientImpl: Submitted application application_1505394411892_0002
17/09/14 06:17:13 INFO mapreduce.Job: The url to track the job: http://master:8088/proxy/application_1505394411892_0002/
17/09/14 06:17:13 INFO mapreduce.Job: Running job: job_1505394411892_0002
17/09/14 06:17:22 INFO mapreduce.Job: Job job_1505394411892_0002 running in uber mode : false
17/09/14 06:17:22 INFO mapreduce.Job:  map 0% reduce 0%
17/09/14 06:17:26 INFO mapreduce.Job: Task Id : attempt_1505394411892_0002_m_000008_0, Status : FAILED
Error: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class wordCount.WordCount$TokenizerMapper not found
    at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2195)
    at org.apache.hadoop.mapreduce.task.JobContextImpl.getMapperClass(JobContextImpl.java:186)
    at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:745)
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:341)
    at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:164)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:422)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1698)
    at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:158)
Caused by: java.lang.ClassNotFoundException: Class wordCount.WordCount$TokenizerMapper not found
    at org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:2101)
    at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2193)
    ... 8 more

17/09/14 06:17:30 INFO mapreduce.Job: Task Id : attempt_1505394411892_0002_m_000008_1, Status : FAILED
Error: java.lang.RuntimeException: java.lang.ClassNotFoundException: Class wordCount.WordCount$TokenizerMapper not found
    at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2195)
    at org.apache.hadoop.mapreduce.task.JobContextImpl.getMapperClass(JobContextImpl.java:186)
    at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:745)
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:341)
    at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:164)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:422)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1698)
    at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:158)
Caused by: java.lang.ClassNotFoundException: Class wordCount.WordCount$TokenizerMapper not found
    at org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:2101)
    at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2193)
    ... 8 more

报错原因及修正方法:在配置eclipse项目时,按照网上的教程提示,将所有的修改过的/etc/hadoop中的文件放到了eclipse工程src目录下面。
由于我撘的环境是全分布式集群,修改了core-site.xml,hdfs-site.xml,mapred-site.xml,slaves,yarn-site.xml这五个文件,所以我将这五个文件以及log4j.properties全部放到了src目录下,但是实际上只需要core-site.xml和hdfs-site.xml两个文件以及log4j.properties。
在删除多余的三个文件后,再次运行程序不再报错。

ps:具体为什么这三个文件会导致报TokenizerMapper not found错误目前尚不清楚,如果有大牛知道还请赐教!
pps:多种原因可能导致程序报这个错误,细心排查最重要。

### 解决方案 当遇到 `hadoop-daemon.sh` 命令未找到的问题时,通常是因为环境变量配置不正确或者脚本路径设置错误。以下是详细的解决方案: #### 1. 验证脚本位置 通过命令 `locate hadoop-daemon.sh` 或者手动查找确认该脚本的实际存储位置。如果发现它位于 `sbin` 而不是 `bin` 下,则需要调整环境变量以包含此路径[^1]。 #### 2. 修改环境变量 编辑用户的 `.bashrc` 文件或全局 `/etc/profile` 文件,确保 `$HADOOP_HOME/sbin` 已被加入到系统的 `PATH` 中。具体操作如下: ```bash export HADOOP_HOME=/path/to/your/hadoop/directory export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 保存并重新加载配置文件: ```bash source ~/.bashrc ``` 验证修改是否生效: ```bash echo $PATH which hadoop-daemon.sh ``` 上述命令应返回正确的路径[^4]。 #### 3. 检查权限 确保当前用户具有执行 `hadoop-daemon.sh` 的权限。如果没有,请赋予适当权限: ```bash chmod +x /path/to/hadoop/sbin/hadoop-daemon.sh ``` #### 4. 启动服务 完成以上步骤后尝试再次运行命令来启动 JournalNode 或其他节点的服务: ```bash hadoop-daemon.sh start journalnode ``` 如果仍然存在问题,可以进一步排查是否有依赖项缺失或其他配置问题[^3]。 --- ### 示例代码片段 以下是一个简单的 Shell 脚本用于自动化环境变量的设置和校验过程: ```bash #!/bin/bash # 设置 Hadoop 主目录 HADOOP_HOME="/usr/local/hadoop" # 添加 bin 和 sbin 到 PATH if [[ ":$PATH:" != *":$HADOOP_HOME/bin:"* || ":$PATH:" != *":$HADOOP_HOME/sbin:"* ]]; then export PATH="$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin" fi # 输出 PATH 并检查 hadoop-daemon.sh 是否可访问 echo "Updated PATH: $PATH" command -v hadoop-daemon.sh && echo "Command is available!" || echo "Command still missing!" ``` ---
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值