初学Spark时,部署的是Standalone模式(集成了HA),写的测试程序一般创建上下文时如下:
此处master设置为管理节点的集群地址(spark webui上显示的地址) 。
之后将测试代码打包成jar包,上传到服务器,使用spark-submit提交作业。
提交命令:
spark-submit --master spark://s44:7077 --name MyWordCount --class com.yahuidemo.spark.scala.WordCountScala SparkDemo1-1.0-SNAPSHOT.jar hdfs://s44:8020/usr/hadoop/test.txt
打包部署参考 官方api:
http://spark.apache.org/docs/latest/submitting-applications.html
注意,此处我把master设置为我集群master的url,那么可以随意定义;class参数要带包名,一直指定到要运行的类入口&#x