最近在使用spark on yarn模式提交任务,下面是我测试的案例
--提交命令
spark-submit --master yarn-cluster --class com.htlx.sage.bigdata.spark.etl.Application --driver-memory 1g --num-executors 2 --executor-memory 2g --executor-cores 2 my-spark-etl_2.11-1.0-SNAPSHOT.jar
--运行后报的错误是

--对这个错误很是郁闷,上网查说是配置问题,可是我运行其他代码就没问题,再说我在搭建集群的时候很是研究了一番,集群不会出现错误,所以我只能去yarn的运行日志中,在yarn的日志中也没有发现什么只有上面这个错误,然后我又去运行该程序的日志中找



-- 查看stderr文件,发现是找不到com/typesafe/scalalogging/Logger

在使用Spark on YARN提交任务时遇到错误,提示'Container exited with a non-zero exit code 1'。通过检查YARN日志和stderr文件,发现问题是由于打包的jar中缺少依赖。解决方案是使用sbt-assembly插件将所有依赖打包到fat JAR中,更新`build.sbt`配置,然后重新打包并提交任务。
最低0.47元/天 解锁文章
5534

被折叠的 条评论
为什么被折叠?



