1. 直接在IDEA中执行,方便在本地环境调试代码
2. 使用spark-submit提交到集群执行【实际工作中使用】
3. 使用spark-shell,方便在集群环境调试代码
比如:需要连接数据库,无法在本地调试的情况。
spark-shell 实现了用户可以逐行输入代码,进行操作的功能。 即可以不像Java一样,编写完所有代码,然后编译才能运行。spark-shell 支持 Scala交互环境 和 python交互环境,在学习测试中可以使用spark-shell 进行API学习。
spark-shell会自动创建sparkContext
- spark-shell的local模式
bin/spark-shell
- spark-shell的独立集群模式
bin/spark-shell --master spark://bigdata01:7077

注意:需要先启动spark standalone集群
- spark-shell的YARN模式
bin/spark-shell --master yarn --deploy-mode client

会启动一个spark任务

文章介绍了在开发过程中执行Spark程序的三种方式:1)直接在IDEA中便于本地调试;2)使用spark-submit提交到集群执行,适用于实际工作;3)利用spark-shell在集群环境中调试,尤其适合数据库连接等无法本地调试的情况。spark-shell提供了Scala和Python的交互环境,便于学习和测试SparkAPI,且能自动创建SparkContext。同时,提到了不同模式下启动spark-shell的命令,包括local、独立集群和YARN模式。
1170

被折叠的 条评论
为什么被折叠?



