1、在本地创建zip文件
# 在spark的jars目录下
zip spark.zip ./*
2、HDFS上创建存放spark jar目录
hdfs dfs -mkdir -p /spark-yarn/jars
3、将$SPARK_HOME/jars下的spark.zip包上传至刚健的HDFS路径
[hadoop@hadoop jars]$ hdfs dfs -put ./spark.zip /spark-yarn/jars/
4、在spark-defaults.conf中添加(也可以在启动时候 -conf 指定)
spark.yarn.archive hdfs://ruozedata001:9000/spark-jars/spark.zip
5、查看Spark log
yarn log -applicationID xxx
本文详细介绍了如何在本地创建Spark的zip文件,并将其上传至HDFS,最后在Spark配置文件中指定档案位置,完成YARN上的Spark应用部署。通过本教程,读者可以学会Spark在YARN集群中的正确部署流程。
723

被折叠的 条评论
为什么被折叠?



