SPARK搭建中WORKER起不来的恢复方法

本文针对CentOS V6.2环境下Spark 1.1.0和1.2.0版本Worker无法启动的问题进行了分析,并提供了详细的解决步骤。通过设置正确的JAVA_HOME路径,成功解决了由系统自带Java版本过低导致的兼容性问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

我用的CENTER OS  V6.2
在编译部署完SPARK 1.1.0和1.2.0后,发现WORKER总是起不来的问题,解决方法分享给大家,希望能有所参考。
错误信息:
SPARK 1.1.0
vm1: failed to launch org.apache.spark.deploy.worker.Worker:
vm1:      at java.lang.Class.initializeClass(libgcj.so.10)
vm1:      ...22 more
vm1: full log in /home/hadoop/spark/spark110_hadoop220/sbin/../logs/spark-hadoop-org.apache.spark.deploy.worker.Worker-1-vm1.out

SPARK 1.2.0
Exception in thread "main" java.lang.ClassFormatError: org.apache.spark.util.Utils$ (erroneous class name)
   at java.lang.VMClassLoader.defineClass(libgcj.so.10)
   at java.lang.ClassLoader.defineClass(libgcj.so.10)
   at java.security.SecureClassLoader.defineClass(libgcj.so.10)
   at java.net.URLClassLoader.findClass(libgcj.so.10)
   at java.lang.ClassLoader.loadClass(libgcj.so.10)
   at java.lang.ClassLoader.loadClass(libgcj.so.10)
   at org.apache.spark.Logging$class.initializeLogging(Logging.scala:124)
   at org.apache.spark.Logging$class.initializeIfNecessary(Logging.scala:107)
   at org.apache.spark.Logging$class.log(Logging.scala:51)
   at org.apache.spark.deploy.worker.Worker$.log(Worker.scala:470)
   at org.apache.spark.deploy.worker.Worker$.main(Worker.scala:472)
   at org.apache.spark.deploy.worker.Worker.main(Worker.scala)


都是JAVA问题,应该找到了OS安装时自带的JAVA,版本过低不支持。

通过在SPARK-ENV.SH中,设置JAVA_HOME可解决。

转自:http://f.dataguru.cn/thread-471416-1-1.html

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值