https://www.jianshu.com/p/314129ceb883
获取docker镜像
sudo docker pull sequenceiq/spark:1.6.0
运行docker容器
sudo docker run -it --name spark --rm sequenceiq/spark:1.6.0 /bin/bash
运行作业
$ cd /usr/local/spark
$ bin/spark-submit --master yarn-client --class org.apache.spark.examples.JavaWordCount lib/spark-examples-1.6.0-hadoop2.6.0.jar file:/usr/local/hadoop/input/
我们也可以把启动容器和运行作业放在一起,比如:
sudo docker run -it --name spark --rm sequenceiq/spark:1.6.0 sh -c "\"spark-submit --master y
本文介绍如何使用Docker快速部署Spark环境,并通过具体示例演示如何在部署的容器中运行Spark作业。首先,通过Docker Pull命令获取Spark镜像,接着运行Spark容器,并在容器内部使用Spark-submit命令执行作业。
1266

被折叠的 条评论
为什么被折叠?



