文章目录
- 1.MapReduce Map端Join报错'winutils.exe symlink xxx/position.txt \tmp\xxx\position.txt' failed 1 with: CreateSymbolicLink error (1314)
- 2.通过脚本停止Yarn时提示no resourcemanager to stop、no nodemanager to stop
- 3.Hadoop编译源码报错[ERROR] xxx.java:864: 警告: 没有 @return
- 4.Hive开发自定义UDF报错Failure to find org.pentaho:pentaho-aggdesigner-algorithm:pom:5.1.5-jhyde
- 5.Hive元数据配置内嵌模式报错Error: FUNCTION 'NUCLEUS_ASCII' already exists
- 6.编译Hue时报错/usr/bin/ld: cannot find -lcrypto和/usr/bin/ld: cannot find -lssl
- 7.编译Hue报错EnvironmentError: mysql_config not found
- 8.启动Impala时报错Unit not found
- 9.安装Impala后启动HDFS报错java.io.IOException
1.MapReduce Map端Join报错’winutils.exe symlink xxx/position.txt \tmp\xxx\position.txt’ failed 1 with: CreateSymbolicLink error (1314)
在Hadoop中进行MapReduce开始时,会有进行Map端Join的场景,一般都需要在Driver中添加缓存文件。
但是执行时可能会报错:
INFO [org.apache.hadoop.mapreduce.JobSubmitter] - Submitting tokens for job: job_local1986965861_0001
INFO [org.apache.hadoop.mapred.LocalDistributedCacheManager] - Creating symlink: \tmp\xxx\position.txt <- xxx/position.txt
WARN [org.apache.hadoop.fs.FileUtil] - Command 'xxx\winutils.exe symlink xxx\position.txt \tmp\xxx\position.txt' failed 1 with: CreateSymbolicLink error (1314): ???????????
WARN [org.apache.hadoop.mapred.LocalDistributedCacheManager] - Failed to create symlink: \tmp\xxx\position.txt <- xxx/position.txt
INFO [org.apache.hadoop.mapred.LocalDistributedCacheManager] - Localized file:/xxx/position.txt as file:/xxx/position.txt
INFO [org.apache.hadoop.mapred.LocalJobRunner] - map task executor complete.
WARN [org.apache.hadoop.mapred.LocalJobRunner] - job_local1986965861_0001
java.lang.Exception: java.io.FileNotFoundException: position.txt (系统找不到指定的文件。)
at org.apache.hadoop.mapred.LocalJobRunner$Job.runTasks(LocalJobRunner.java:491)
at org.apache.hadoop.mapred.LocalJobRunner$Job.run(LocalJobRunner.java:551)
Caused by: java.io.FileNotFoundException: position.txt (系统找不到指定的文件。)
at java.io.FileInputStream.open0(Native Method)
at java.io.FileInputStream.open(FileInputStream.java:195)
at java.io.FileInputStream.<init>(FileInputStream.java:138)
...
出现异常的主要问题是winutils.exe文件在创建符号表链接时失败,导致缓存找Windows本地的临时文件不存在,程序找不到缓存文件,所以不能正常执行。
原因在于:
Mapreduce正在访问一些受限制的路径/位置,而Windows账户不具备创建符号表的权限,也就是存在权限的问题。
解决方法如下:
(1)Win+R键打开Run窗口,输入gpedit.msc打开本地组策略编辑器,并按下图进行操作:

注意,在操作完成后需要重启电脑。
(2)如果在Run窗口中输入gpedit.msc提示Windows找不到文件 'gpedit.msc'。请确定文件名是否正确后,再试一次.,则可能是组策略编辑器遗失,需要重新安装,可以参考https://blog.youkuaiyun.com/qq_41731507/article/details/115875247进行解决,解决后再重新打开组策略编辑器进行编辑和重启。
2.通过脚本停止Yarn时提示no resourcemanager to stop、no nodemanager to stop
在通过脚本stop-yarn.sh停止Yarn集群时,有时候会报错,例如:
[root@node03 ~]$ stop-yarn.sh
stopping yarn daemons
no resourcemanager to stop
node01: no nodemanager to stop
node02: no nodemanager to stop
node03: no nodemanager to stop
no proxyserver to stop
但是通过jps命令查看各个节点时,可以看到ResourceManager和NodeManager都还在运行状态,说明没有成功停止。
原因:
这是因为yarn-deamon.sh文件中配置了ResourceManager和NodeManager服务的pid文件,里面存储了它们的pid,默认的存储位置是/tmp,但是系统会定期清理这个目录,所以pid文件可能会丢失,找不到文件就会报上面的错。
解决办法:
为了一劳永逸地解决这个问题,先在一个节点进行操作,需要修改yarn-deamon.sh中的pid文件路径,该文件位于Hadoop安装目录下的sbin目录下,编辑该文件的88行左右,如下:
if [ "$YARN_PID_DIR" = "" ]; then
# YARN_PID_DIR=/tmp
YARN_PID_DIR=/opt/software/hadoop-2.9.2/data/pids
fi
可以看到,原目录YARN_PID_DIR的值为/tmp,这里修改为/opt/software/hadoop-2.9.2/data/pids,也可以根据自己的需要进行设置。
同时手动创建该目录mkdir /opt/software/hadoop-2.9.2/data/pids。
在修改和创建完成后需要通过分发脚本将yarn-deamon.sh脚本和pids目录分发到其他节点,或者在其他节点手动进行同样的操作。
然后通过kill -9 pid停止各个节点的Yarn ResourceManager和NodeManager服务,然后再执行start-yarn.sh就会在指定的目录(/opt/software/hadoop-2.9.2/data/pids)下创建对应的pid文件。
扩展:
停止Hadoop和HistoryServer时可能也会遇到类似的问题,例如no namenode to stop和no historyserver to stop,问题的原因和Yarn类似,也需要修改对应的pid文件路径:
Hadoop修改对应的hadoop-daemon.sh114行左右,如下:
if [ "$HADOOP_PID_DIR"

本文档汇总了Hadoop MapReduce、Yarn、Hadoop源码编译、Hive UDF开发、Hive元数据、Hue编译、Impala启动和HDFS启动过程中遇到的一系列问题及其解决办法,包括MapReduce Map端Join报错、Yarn停止脚本问题、Hadoop编译警告、Hive UDF报错、Hive元数据内嵌模式错误、Hue编译找不到库、Hue编译找不到MySQL配置以及Impala和HDFS启动异常等。这些问题涉及到权限配置、服务启动、依赖库安装、源码编译等多个方面,解决方案包括修改配置文件、添加软链接、调整权限等。
最低0.47元/天 解锁文章
1575

被折叠的 条评论
为什么被折叠?



