1.启动spark后,运行bin/spark-shell会出现一个警告
WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
2.解决办法:
(1)第一种:在linux环境变量里设置linux共享库:命令行输入一下命令
vim /etc/profile
export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native/:$LD_LIBRARY_PATH
source /etc/profile
(2)第二种:设置环境变量和conf/spark-env.sh
vim /etc/profile
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native/
source /etc/profile
进入conf/spark-env.sh目录下:
vim conf/spark-env.sh
export LD_LIBRARY_PATH=$JAVA_LIBRARY_PATH
问题就解决了
本文介绍了在启动Spark并运行spark-shell时遇到的警告信息及其解决方案。提供了在Linux环境下通过设置共享库路径和修改环境变量两种方法来解决无法加载本地Hadoop库的问题。
1357

被折叠的 条评论
为什么被折叠?



