hadoop-WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using b

在运行hadoop-2.6.2版本的hdfs命令时,遇到WARN util.NativeCodeLoader告警,提示无法加载native-hadoop库。尝试过网络上的常见解决方案,如修改hadoop-env.sh和log4j.properties文件,但问题仍然存在。在log4j.properties中将日志级别改为ERROR可以屏蔽此警告。

hadoop-2.6.2版本,使用hdfs命令时总会提示如下的告警:
WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform… using builtin-java classes where applicable
有人说这是hadoop的预编译包是32bit的,运行在64bit上就会有问题。不少人都重新进行编译源码重新安装。结果问题依然存在。
问题详细信息如下:

#1.开启hadoop调试信息
[root@hadoop1 hadoop]# export HADOOP_ROOT_LOGGER=DEBUG,console
#2.执行hdfs命令查看调试信息
[root@hadoop0 hadoop]# hadoop fs -ls
20/04/21 15:43:46 DEBUG util.Shell: setsid exited with exit code 0
20/04/21 15:43:47 DEBUG conf.Configuration: parsing URL jar:file:/usr/local/hadoop-2.6.2/share/hadoop/common/hadoop-common-2.6.2.jar!/core-default.xml
20/04/21 15:43:47 DEBUG conf.Configuration: parsing input stream sun.net.www.protocol.jar.JarURLConnection$JarURLInputStream@5593d23b
20/04/21 15:43:47 DEBUG conf.Configuration: parsing URL file:/usr/local/hadoop-2.6.2/etc/hadoop/core-site.xml
20/04/21 15:43:47 DEBUG conf.Configuration: parsing input stream java.io.BufferedInputStream@201da694
20/04/21 15:43:47 DEBUG lib.MutableMetricsFactory: field org.apache.hadoop.metrics2.lib.MutableRate org.apache.hadoop.security.UserGroupInformation$UgiMetrics.loginSuccess with annotation @org.apache.hadoop.metrics2.annotation.Metric(value=[Rate of successful kerberos logins and latency (milliseconds)], valueName=Time, about=, type=DEFAULT, always=false, sampleName=Ops)
20/04/21 15:43:47 DEBUG lib.MutableMetricsFactory: field org.apache.hadoop.metrics2.lib.MutableRate org.apache.hadoop.security.UserGroupInformation$UgiMetrics.loginFailure with annotation @org.apache.hadoop.metrics2.annotation.Metric(value=[Rate of failed kerberos logins and latency (milliseconds)], valueName=Time, about=, type=DEFAULT, always=false, sampleName=Ops)
20/04/21 15:43:47 DEBUG lib.MutableMetricsFactory: field org.apache.hadoop.metrics2.lib.MutableRate org.apache.hadoop.security.UserGroupInformation$UgiMetrics.getGroups with annotation @org.apache.hadoop.metrics2.annotation.Metric(value=[GetGroups], valueName=Time, about=, type=DEFAULT, always=false, sampleName=Ops)
20/04/21 15:43:47 DEBUG impl.MetricsSystemImpl: UgiMetrics, User and group related metrics
20/04/21 15:43:47 DEBUG security.Groups:  Creating new Groups object
20/04/21 15:43:47 DEBUG util.NativeCodeLoader: Trying to load the custom-built native-hadoop library...
20/04/21 15:43:47 DEBUG util.NativeCodeLoader: Failed to load native-hadoop with error: java.lang.UnsatisfiedLinkError: /usr/local/hadoop-2.6.2/lib/native/libhadoop.so.1.0.0: /lib64/libc.so.6: version 'GLIBC_2.14' not found (required by /usr/local/hadoop-2.6.2/lib/native/libhadoop.so.1.0.0)
20/04/21 15:43:47 DEBUG util.NativeCodeLoader: java.library.path=/usr/local/hadoop-2.6.2/lib/native
20/04/21 15:43:47 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
20/04/21 15:43:47 DEBUG util.PerformanceAdvisory: Falling back to shell based
20/04/21 15:43:47 DEBUG security.JniBasedUnixGroupsMappingWithFallback: Group mapping impl=org.apache.hadoop.security.ShellBasedUnixGroupsMapping
20/04/21 15:43:47 DEBUG security.Groups: Group mapping impl=org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback; cacheTimeout=300000; warningDeltaMs=5000
20/04/21 15:43:47 DEBUG security.UserGroupInformation: hadoop login
20/04/21 15:43:47 DEBUG security.UserGroupInformation: hadoop login commit
20/04/21 15:43:47 DEBUG security.UserGroupInformation: using local user:UnixPrincipal: root
20/04/21 15:43:47 DEBUG security.UserGroupInformation: Using user: "UnixPrincipal: root" with name root
20/04/21 15:43:47 DEBUG security.UserGroupInformation: User entry: "root"
20/04/21 15:43:47 DEBUG security.UserGroupInformation: UGI loginUser:root (auth:SIMPLE)
20/04/21 15:43:48 DEBUG hdfs.BlockReaderLocal: dfs.client.use.legacy.blockreader.local = false
20/04/21 15:43:48 DEBUG hdfs.BlockReaderLocal: dfs.client.read.shortcircuit = false
20/04/21 15:43:48 DEBUG hdfs.BlockReaderLocal: dfs.client.domain.socket.data.traffic = false
20/04/21 15:43:48 DEBUG hdfs.BlockReaderLocal: dfs.domain.socket.path = 
20/04/21 15:43:48 DEBUG hdfs.DFSClient: No KeyProvider found.
20/04/21 15:43:48 DEBUG retry.RetryUtils: multipleLinearRandomRetry = null
20/04/21 15:43:48 DEBUG ipc.Server: rpcKind=RPC_PROTOCOL_BUFFER, rpcRequestWrapperClass=class org.apache.hadoop.ipc.ProtobufRpcEngine$RpcRequestWrapper, rpcInvoker=org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker@5001b9f5
20/04/21 15:43:48 DEBUG ipc.Client: getting client out of cache: org.apache.hadoop.ipc.Client@187790ec
20/04/21 15:43:48 DEBUG util.PerformanceAdvisory: Both short-circuit local reads and UNIX domain socket are disabled.
20/04/21 15:43:48 DEBUG sasl.DataTransferSaslUtil: DataTransferProtocol not using SaslPropertiesResolver, no QOP found in configuration for dfs.data.transfer.protection
20/04/21 15:43:48 DEBUG ipc.Client: The ping interval is 60000 ms.
20/04/21 15:43:48 DEBUG ipc.Client: Connecting to hadoop0/192.168.1.5:9000
20/04/21 15:43:48 DEBUG ipc.Client: IPC Client (34104097) connection to hadoop0/192.168.1.5:9000 from root: starting, having connections 1
20/04/21 15:43:48 DEBUG ipc.Client: IPC Client (34104097) connection to hadoop0/192.168.1.5:9000 from root sending #0
20/04/21 15:43:48 DEBUG ipc.Client: IPC Client (34104097) connection to hadoop0/192.168.1.5:9000 from root got value #0
20/04/21 15:43:48 DEBUG ipc.ProtobufRpcEngine: Call: getFileInfo took 76ms
ls: '.': No such file or directory
20/04/21 15:43:48 DEBUG ipc.Client: stopping client from cache: org.apache.hadoop.ipc.Client@187790ec
20/04/21 15:43:48 DEBUG ipc.Client: removing client from cache: org.apache.hadoop.ipc.Client@187790ec
20/04/21 15:43:48 DEBUG ipc.Client: stopping actual client because no more references remain: org.apache.hadoop.ipc.Client@187790ec
20/04/21 15:43:48 DEBUG ipc.Client: Stopping client
20/04/21 15:43:48 DEBUG ipc.Client: IPC Client (34104097) connection to hadoop0/192.168.1.5:9000 from root: closed
20/04/21 15:43:48 DEBUG ipc.Client: IPC Client (34104097) connection to hadoop0/192.168.1.5:9000 from root: stopped, remaining connections 0

#3.关闭hadoop调试信息
[root@hadoop1 hadoop]# export HADOOP_ROOT_LOGGER=INFO,console

在warn信息附近的调试信息如下:

20/04/21 15:43:47 DEBUG util.NativeCodeLoader: Failed to load native-hadoop with error: java.lang.UnsatisfiedLinkError: /usr/local/hadoop-2.6.2/lib/native/libhadoop.so.1.0.0: /lib64/libc.so.6: version 'GLIBC_2.14' not found (required by /usr/local/hadoop-2.6.2/lib/native/libhadoop.so.1.0.0)
20/04/21 15:43:47 DEBUG util.NativeCodeLoader: java.library.path=/usr/local/hadoop-2.6.2/lib/native
20/04/21 15:43:47 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

方案一:网络上的一种解决方案是:在文件hadoop-env.sh中增加:

export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib/native"  

该方案我尝试了并未解决该问题。
参考:方案一原创

方案二:由于此处只是warn并不影响使用,只是显示看着不舒服。直接在log4j日志中去除告警信息。在$HADOOP_HOME/etc/hadoop/log4j.properties文件中添加下面代码,将日志打印级别修改为ERROR:

log4j.logger.org.apache.hadoop.util.NativeCodeLoader=ERROR

修改后确实可以屏蔽该warn的打印。
参考:方案二原创

<think>好的,我现在遇到了一个Hadoop的问题,控制台提示“WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform...”,需要解决这个问题。首先,我要理解这个警告的含义。 这个警告是说Hadoop无法加载本地库,可能是因为平台不支持或者库文件不存在。Hadoop的某些组件,比如压缩和解压,使用本地库可以提高性能,如果无法加载,可能会回退到Java实现,性能可能受影响,但功能还是可用的。 接下来,我需要确定问题具体原因。可能的因素包括:本地库文件是否缺失、Hadoop的二进制包是否与当前平台兼容(例如,32位和64位不匹配)、环境变量配置是否正确等。 首先,检查Hadoop安装目录下的lib/native目录,看看是否存在对应的.so文件。如果不存在,可能需要重新编译Hadoop或者下载包含本地库的二进制包。另外,确认系统是否是64位的,Hadoop预编译的本地库通常是64位的,如果系统是32位,可能需要自己编译。 然后,检查环境变量HADOOP_HOME和HADOOP_COMMON_LD_LIBRARY_PATH是否正确设置,确保指向了包含本地库的目录。有时候需要将这些路径添加到LD_LIBRARY_PATH中。 如果确认库文件存在且平台兼容,但仍有警告,可能需要忽略该警告,或者升级Hadoop版本。某些旧版本的Hadoop可能在某些平台上存在兼容性问题,更新到新版本可能解决。 最后,测试解决方案是否有效,例如运行Hadoop命令,查看警告是否消失,或者性能是否有改善。</think>出现 `WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform...` 警告时,表明 Hadoop 无法加载与当前操作系统平台兼容的本地库(Native Library)。以下是分步解决方案: --- ### **1. 确认警告的影响** - **功能性影响**:Hadoop 的核心功能仍可正常运行,但依赖本地库的组件(如压缩算法 `zlib`、`snappy`)会回退到纯 Java 实现,性能可能下降。 - **无需修复的场景**:如果集群对性能不敏感,可忽略此警告。 --- ### **2. 检查本地库是否存在** 进入 Hadoop 安装目录的 `lib/native` 路径,检查是否存在 `.so`(Linux)或 `.dll`(Windows)文件: ```bash cd $HADOOP_HOME/lib/native ls -l ``` - **若目录为空**:说明未正确安装本地库。 - **若文件存在**:检查平台兼容性(如 64 位系统需对应 64 位库)。 --- ### **3. 解决方案** #### **情况 1:本地库缺失** **原因**:Hadoop 官方预编译的二进制包可能未包含某些平台的本地库。 **解决步骤**: 1. **下载含本地库的 Hadoop 包** 从 Hadoop 官网或镜像站下载带有 `-native` 标识的二进制包,例如 `hadoop-x.x.x.tar.gz`(包含预编译的本地库)。 2. **替换或补充本地库** 解压下载的包,将其 `lib/native` 目录下的文件复制到当前 Hadoop 的 `lib/native` 中。 --- #### **情况 2:平台不兼容** **原因**:系统架构(如 32 位)与本地库架构(通常为 64 位)不匹配。 **解决步骤**: 1. **确认系统架构** 执行以下命令检查系统位数: ```bash uname -m ``` - 输出应为 `x86_64`(64 位系统)。若为 `i386` 或 `i686`,则为 32 位系统。 2. **重新编译 Hadoop 本地库**(适用于 32 位系统或自定义平台) 需安装编译工具链(如 GCC、CMake)后,执行: ```bash cd $HADOOP_SOURCE_DIR mvn package -Pdist,native -DskipTests -Dtar ``` 编译完成后,从生成的 `hadoop-dist/target` 目录中获取新的 `lib/native` 文件。 --- #### **情况 3:环境变量未配置** **原因**:Hadoop 未正确识别本地库路径。 **解决步骤**: 1. **设置 `LD_LIBRARY_PATH`** 在 `hadoop-env.sh` 中添加以下行: ```bash export HADOOP_COMMON_LD_LIBRARY_PATH=$HADOOP_HOME/lib/native export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$HADOOP_COMMON_LD_LIBRARY_PATH ``` 2. **应用配置并重启 Hadoop** 执行 `source hadoop-env.sh` 后重启 Hadoop 服务。 --- ### **4. 验证修复结果** 运行以下命令检查本地库是否加载成功: ```bash hadoop checknative ``` - **期望输出**: ``` zlib: true snappy: true zstd : true ... ``` --- ### **5. 其他建议** - **升级 Hadoop 版本**:旧版本可能缺少对新系统的支持。 - **忽略警告**:在 `log4j.properties` 中关闭 NativeCodeLoader 的警告: ```properties log4j.logger.org.apache.hadoop.util.NativeCodeLoader=ERROR ``` --- **总结**:此警告通常由本地库缺失或平台不兼容引起。优先通过补充本地库或配置环境变量解决,若对性能无要求,也可选择忽略。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值